Está en la página 1de 39

Máster en Psicología Forense

Metodología Avanzada de Investigación

Unidad didáctica 4. Modelos de ANOVA


UD 4. Modelos de ANOVA ................................................................................................. 3

4.1 Modelos de análisis de la varianza ............................................................................. 4

4.1.1 Criterios de clasificación de modelos de ANOVA ..................................................... 5

4.2. ANOVA factorial (multifactorial) ............................................................................... 7

4.2.1. ANOVA factorial de dos factores intergrupos ......................................................... 9

4.2.2. Supuesto del ANOVA de dos factores y medidas de tamaño del efecto ................... 10

4.2.3. Comparaciones múltiples: efectos principales y efectos simples ............................ 11

4.2.4. Ejecución de ANOVA de dos factores en SPSS ..................................................... 13

4.3. ANOVA de un factor de medidas repetidas ............................................................... 16

4.3.1. Supuestos del ANOVA de medidas repetidas y alternativas ................................... 17

4.3.2. Contrastes múltiples y tamaño del efecto ........................................................... 19

4.3.3. Ejecución de ANOVA de un factor de medidas repetidas en SPSS .......................... 19

4.4. ANOVA factorial mixto .......................................................................................... 22

4.4.1. ANOVA de dos factores (2 × 2) con medidas repetidas en uno .............................. 23

4.4.2. Ejecución de ANOVA de dos factores con medidas repetidas en uno en SPSS .......... 25

4.5. Análisis de la covarianza: ANCOVA ......................................................................... 26

4.5.1. Supuestos particulares de la técnica de ANCOVA ................................................. 27

4.5.2. Ejecución de ANCOVA de un solo factor intergrupo en SPSS ................................. 29

4.6. Análisis multivariante MANOVA .............................................................................. 31

4.6.1. Contraste de hipótesis nula con MANOVA de un factor intergrupos ........................ 32

4.6.2. Ejecución de MANOVA de un factor intergrupo en SPSS ....................................... 33

Resumen ...................................................................................................................... 35

Mapa de contenidos ....................................................................................................... 37

Recursos bibliográficos ................................................................................................... 38

2
UD 4. Modelos de ANOVA

Como se adelantó en la unidad 3, el análisis de la varianza (ANOVA) no designa a una única


técnica de análisis inferencial, sino a toda familia de estrategias de análisis, con una base
lógica estadística común. Las diferentes alternativas de ANOVA se denominan modelos y, aunque
no se trate del mismo concepto, se vinculan directamente con determinadas decisiones de diseño
experimental. De hecho, los desarrollos originarios de Fisher respecto al análisis de la varianza
se plantean sobre la base de su diseño experimental clásico, en el que el efecto de la variable
independiente (VI) sobre la variable dependiente (VD) se estudia generando diferentes
condiciones experimentales (manipulación directa) que se correspondan con los diferentes valores
de estudio de la VI, para posteriormente comparar las diferencias de valores de la VD en los
diferentes grupos-condición generados. Aunque técnicamente es posible utilizar los modelos de
ANOVA fuera de un contexto estrictamente experimental, las denominaciones de sus elementos
y las taxonomías de sus modelos se asientan en este tipo de marco empírico.

Figura 1. Las estrategias de análisis de la varianza ANOVA.

En estos modelos se designa a las VI como «factores», que son siempre tratados como
variables categoriales (ya que son las variables manipuladas que generan los grupos que se
comparan), y se comprueba su efecto sobre las VD, aunque estén registradas en escala
cuantitativa. También es posible incluir en estos modelos variables extrañas con métrica
cuantitativa (como covariables) para la relación VI-VD que se quieren controlar
estadísticamente. Es importante recordar aquí que el esclarecimiento de la relación explicativa-
causal entre VI y VD es una cuestión que atañe más al diseño previo de la investigación que al
análisis de datos posterior, por lo que la propia interpretación y las conclusiones de los estadísticos
inferenciales se ven limitadas por este hecho. Pero, independientemente del diseño empírico
utilizado, la idoneidad del uso de los modelos de ANOVA es el contexto de una exploración de
relación asimétrica entre variables, ya sea VI-VD o predictor-criterio.

3
4.1 Modelos de análisis de la varianza

Los modelos de ANOVA se encuadran en un marco matemático más amplio denominado modelo
lineal general (que comparten con los modelos de regresión lineal referidos en la siguiente
unidad didáctica). Esta concepción es una forma de representar, desde una estructura de ecuación
matemática, que el valor de una variable dependiente o criterio es el resultado de la combinación
lineal de un conjunto de efectos. Aplicándolo a un contexto empírico, implica asimilar que un
valor concreto de un sujeto en una VD (por ejemplo, rendimiento en una tarea) está determinado
por multitud de factores y que en una investigación particular solo será posible controlar y
medir un número limitado de estos. Los factores en los que el investigador centra su atención
directamente son los que ocupan el rol de variable independiente o de variable predictora,
mientras que los demás elementos son otras variables cuyo efecto o bien se mantiene constante
mediante estrategias de control experimental (efectos constantes) o son variables
incontroladas cuyo efecto conjunto se agrupa bajo el término error. De esta forma, el valor de
la variable dependiente se puede expresar mediante la siguiente estructura elemental de modelo
lineal (Pardo y Ruiz, 2012):

Figura 2. Ecuación lineal de efectos en los modelos de ANOVA. Fuente: Pardo y Ruiz, 2012 (adaptación).

Sin embargo, esta ecuación es un planteamiento teórico y es necesario estimar sus elementos a
partir de los datos recogidos en la muestra de estudio para poder realizar contrastes de hipótesis
sobre los efectos de las VI o variables predictoras. El procedimiento habitual para ello en los
modelos de ANOVA es el denominado criterio de mínimos cuadrados ordinarios (MCO), que
parte del principio básico de estos modelos, que es que la distancia o el tamaño de la variación
de un valor de VD observado particular con respecto al promedio total de todos los valores
observados de la VD se divide en dos componentes (Balluerka y Vergara, 2002):

• Desviación explicada: distancia del promedio de VD del grupo de cada categoría del
factor (VI o predictora) respecto a la media global de la VD, que recoge la parte de la
desviación total causada por el factor.

4
• Desviación no explicada: variación de cada observación con respecto al promedio del
grupo de observaciones de su misma categoría del factor, que recoge la parte de la
desviación total debida a factores extraños no manipulados ni controlados por el
investigador.

El cálculo de estos dos componentes se inicia con los dos elementos denominados de suma de
cuadrados intergrupo e intragrupo, que estiman la proporción de varianza que se corresponde
a cada concepto (debido al factor o debido a elementos no controlados), que después de ser
divididos por sus grados de libertad dan lugar a las dos medias cuadráticas (entre grupos y error)
cuyo cociente da como resultado el estadístico F, como ya se explicó en la UD 3. Este estadístico
permite contrastar la hipótesis nula de no diferencia entre grupos, que en la ecuación lineal se
correspondería con la nulidad del efecto debido a los factores de estudio.

4.1.1 Criterios de clasificación de modelos de ANOVA

En la unidad anterior ya se presentó el planteamiento más sencillo de ANOVA, para estudiar la


relación entre una variable categorial (factor) de niveles independientes y una variable
cuantitativa (VD). Sin embargo, la flexibilidad de los modelos ANOVA permite plantear
aplicaciones para muchas otras situaciones. Los diferentes modelos de ANOVA responden a
necesidades de diseño de investigación y análisis de datos específicas, las cuales se pueden
agrupar según cuatro características principales (Pardo y San Martín, 2010):

Principales características de diseño que determinan el modelo de ANOVA de elección

Número de factores

• Se refiere al número de variables independientes que se quieren contemplar en el


análisis simultáneamente.
• Estudiar las interacciones entre diferentes factores en su efecto sobre la VD puede ser
un acercamiento más realista al fenómeno estudiado que comprobar sus efectos por
separado.

Número de variables dependientes

• En muchos modelos de ANOVA se contempla una única VD (o variable de resultado o


de criterio).
• Pero en circunstancias donde varias variables de dependientes están relacionadas
entre sí (por ejemplo, porque se agrupan bajo un mismo constructo teórico) será
incorrecto analizarlas de forma separada, ya que potencialmente compartirían parte de
su varianza.

Modo de asignación a niveles del factor

• La asignación de los sujetos a cada nivel del factor se corresponde en un diseño


experimental clásico a la asignación de la muestra a diferentes condiciones
experimentales (que en un experimento puro debería ser aleatoria).

5
• Si cada sujeto es asignado a un único nivel, la comparativa se realizará bajo el
supuesto de independencia de las observaciones, analizando las diferencias
intersujetos o también denominado entre sujetos (comparación entre grupos).
• Pero si a cada sujeto se le aplican de forma sucesiva cada uno de los niveles del
factor contemplados (medidas repetidas), las observaciones no son independientes
y lo que se analizará son las diferencias intrasujeto entre los diferentes momentos de
medida.

Formas de establecer los niveles del factor

• Si los niveles del factor (como variable categórica) que se tienen en cuenta en el estudio
son exactamente sobre los que se pretende realizar la inferencia (porque no existen
realmente más niveles o porque esos sean los de interés), se denomina factor de efectos
fijos.
• Pero si lo que plantea es una selección aleatoria representativa de niveles del factor
para el estudio, a través de los cuales se pretende realizar una inferencia que incluya
también niveles del factor no contemplados en el estudio particular, se denominará
factor de efectos aleatorios.
• La situación de factores de efectos fijos es la más habitual en investigación.

En los siguientes apartados de la unidad, se van a presentar los modelos de ANOVA más utilizados
en investigación en psicología en su forma más elemental (ver tabla 1), para maximizar su
asimilación. Pero es importante tener en cuenta que no es una exposición exhaustiva de todas
las posibilidades y permutaciones que permiten este tipo de análisis, por lo que para mayor
nivel de especificidad se recomienda la obra de Balluerka y Vergara (2002).

Modelo Objetivo VI VD

ANOVA de un Comprobar las diferencias entre los grupos 1 VI con 1 VD


factor. One way (niveles de VI). cuantitativa
niveles ≥ 2

ANOVA Comprobar las variaciones en el resultado VI ≥ 2 con 1 VD


factorial como una función de los principales efectos cuantitativa
niveles ≥ 2
de los factores y la interacción entre ellos.
cada una

Análisis de la Comprobar la variación en la VD como una VI ≥ 1 categoriales 1 VD


covarianza función de las diferencias de grupo cuantitativa
VI ≥ 1 covariantes
después de controlar los efectos de
ANCOVA continuas
covarianza.

ANOVA de Comprobar la variación en la VD como una 1 VI como factor 1 VD


medidas función de las medidas repetidas (tiempo). intrasujeto niveles cuantitativa
repetidas ≥2

6
ANOVA Comprobar la variación en la VD en un VI ≥ 1 en efecto 1 VD
factorial mixto diseño de medidas parcialmente repetidas intersujeto cuantitativa
donde exista como mínimo un factor
VI ≥ 1 de efectos
intersujetos y otro intrasujetos.
intrasujeto

Análisis Comprobar las diferencias entre grupos en 1 VI con VD ≥ 2


multivariado de una combinación lineal de VD cuantitativas
niveles ≥ 2
la varianza
MANOVA

Tabla 1. Modelos de ANOVA más frecuentes en investigación en psicología.

4.2. ANOVA factorial (multifactorial)

Cuando en un estudio se manipulan o se tienen en cuenta dos o más factores simultáneamente,


no es idóneo analizar sus efectos por separado mediante ANOVAS de un solo factor. De hecho, si
se tienen en cuenta en el análisis varios factores al mismo tiempo, se reduce teóricamente la
varianza de error y se incrementa su potencia estadística del análisis (la probabilidad de rechazar
hipótesis nula cuando esta es realmente falsa). Esto tiene la ventaja de que se requieran tamaños
muestrales más reducidos (la mitad) que si se consideraran los factores en estudios y análisis
separados. Por otro lado, los fenómenos complejos, como los que son objeto de estudio de la
psicología, están multideterminados, por lo que en la realidad rara vez los factores que influyen
en las variables dependientes se van a manifestar de forma aislada, por lo que una consideración
multifactorial tiene mayor validez externa que un planteamiento de análisis de un solo factor.

Viaja

El concepto de interacción entre factores y su relación con los efectos principales se


comprende mejor cuando se observan gráficamente estos elementos. En este artículo, León
y Montero (2001) ejemplifican la interpretación gráfica de diferentes posibilidades interacción
entre dos factores.

Pero la ventaja más evidente de esta estrategia de análisis es la posibilidad de examinar los
efectos de interacción entre los diferentes factores. El concepto de interacción es clave para la
interpretación de este tipo de análisis, y se puede identificar de forma resumida con la siguiente
definición: «Existe interacción entre dos factores cuando el efecto de uno de ellos sobre la variable
dependiente no es el mismo en todos los niveles del otro factor» (Pardo y San Martín, 2010, p.
250). Por lo que, si la interacción de dos factores resulta significativa, la influencia de un factor
sobre la variable independiente va a estar condicionada por los valores de otro factor y, por tanto,
no se podrá generalizar su efecto de forma independiente al otro factor.

7
Ejemplo de investigación con interacción de dos factores:

En una investigación, se pretende analizar la influencia de la actitud interpersonal de los


jueces y el nivel de ansiedad previo de los testigos sobre la calidad y coherencia de la
declaración emitida en la sala de tribunal. La actitud del juez (factor A) se manipula
experimentalmente en dos niveles-condiciones: actitud fría y distante con el testigo (nivel
1) o actitud cercana y cálida con el testigo (nivel 2). Mientras que el nivel de ansiedad (factor
B) es un variable asignada o atributiva (no manipulada directamente), medida en el
momento previo al de declarar ante el juez, registrada de forma categorial en 3 niveles: bajo
(1), medio (2) y alto (3). Y la VD se establecerá de forma métrica (puntuación 0-10) por una
evaluación externa sobre la coherencia y la calidad de la declaración en relación con los
hechos realmente ocurridos. Combinando ambos factores se generan 6 subgrupos de
sujetos en el estudio según la combinación de niveles de los dos factores (2 × 3) cuyas
medias en puntuación de la VD se representan en las intersecciones de la siguiente tabla:

Ansiedad Medias
(F2) marginales F1

Bajo Medio Alto

Actitud juez 6,08


(F1) Distante 5,5 5,75 7

Cercana 8,5 8,75 6 7,75

Medias
marginales F2 7 7,27 6,5
Tabla 2. Ejemplo de interacción de dos factores (actitud y ansiedad) sobre la calidad de testimonio.

Como se puede ver, si solo se atendiese a las medias marginales (las medias de los niveles
de los dos factores por separado), se podría llegar a la conclusión de que con respecto a F1
la segunda categoría (actitud cercana) presenta puntuación promedio más alta de calidad de
testimonio. Pero al observar la intersección con el F2, se observa que esta diferencia se
invierte cuando el nivel de ansiedad es alto, ya que entonces la actitud distante presenta un
promedio mayor de testimonio; esto evidencia una interacción entre ambos factores. Esta
interacción se puede observar fácilmente cuando se representan gráficamente las medias de
intersección entre los dos factores y sus dos líneas se cruzan precisamente en esta tercera
categoría (en caso de que estas líneas fuesen paralelas no cabría suponer la posibilidad de
interacción).

8
Figura 3. Representación gráfica de ejemplo de interacción entre dos factores.

4.2.1. ANOVA factorial de dos factores intergrupos

La notación de diseños multifactoriales se suele representar en forma de producto entre el


número de categorías de los diferentes factores, por ejemplo, en el caso de contemplar un factor
de 2 valores posibles y otro factor con 3 valores, se expresaría 2 × 3. Aunque, si todos los factores
tienen el mismo número de categorías, también se puede representar la notación exponencial
kf, de forma que, por ejemplo, 23 designaría una situación en la que se tienen en cuenta 3
factores, todos con 2 categorías (2 × 2 × 2). En este apartado se va a presentar la lógica del
proceso de ANOVA de 2 factores entre sujetos (o intergrupos), pero esto es generalizable a
procesos con un mayor número de factores simultáneos.

Figura 4. Ecuación lineal de efectos ANOVA de dos factores entre sujetos.

9
Nota

Con más de dos factores, además de las interacciones por pares, también habrá que
analizar las interacciones de segundo orden que contemplen todos los factores de forma
simultánea. Por ejemplo, con tres factores se estudiaran las interacciones F1 x F2, F1 x F3,
F2 x F3, y también la interacción múltiple F1 x F3 x F3 de interpretación más compleja.

Como se puede constatar en el esquema de la figura 4, en la ecuación lineal teórica con dos
factores, la parte de la varianza debida a los factores de estudio (varianza intergrupo) se desglosa
en tres fuentes: efecto del factor 1 por separado, el factor 2 por separado (los denominados
efectos principales) y la correspondiente al efecto de la interacción entre los dos factores. Para
contrastar las hipótesis nulas en relación con estos elementos será necesario estimar tres
estadísticos F que den cuenta de la razón de las medias cuadráticas de cada elemento (derivadas
también de sus correspondientes sumas de cuadrados), entre la media cuadrática del error
(componente residual no explicado del modelo). Aunque esto implica contrastar tres valores de
significación (p < 0,05), el correspondiente a la interacción tiene una prioridad jerárquica sobre
los factores por separado, ya que limita la interpretación de estos. Si la interacción resulta
estadísticamente significativa, quiere decir que el efecto de un factor sobre la VD está
condicionado por los valores del otro factor, por lo que el análisis de los factores por separado
pierde relevancia de cara a sacar conclusiones inferenciales. Pero si el contraste de la interacción
resulta no significativo y si lo es en alguno de los factores por separado, la interpretación aislada
de los factores principales será más consistente y relevante.

4.2.2. Supuesto del ANOVA de dos factores y medidas de tamaño del efecto

Al igual que sucede con el ANOVA de un solo factor, los contrastes del ANOVA de dos factores
requieren de poder asumir una serie de supuestos sobre las distribuciones de la variable
dependiente: distribución normal en la población, homogeneidad de varianza e independencia
de observaciones.

Este análisis es bastante resistente al no cumplimiento del primer supuesto (normalidad) y solo
ante muestras pequeñas o distribuciones muy asimétricas (con casos con valores atípicos)
puede perder potencia estadística y sería recomendable realizar un contraste previo para su
comprobación (Shapiro-Wilk, como se explicó en la unidad anterior). Sin embargo, el segundo
supuesto de homocedasticidad sí puede distorsionar en gran medida el contraste, por lo que será
necesario realizar el contraste estadístico de Levene (ver unidad anterior) para comprobar la
homogeneidad de varianza respecto a las agrupaciones que generan los dos factores. El supuesto
de independencia hace referencia a que cada valor de la variable dependiente registrado en la
muestra (cada registro puntual) es independiente de los demás valores. Este punto se suele
suponer cumplido siempre que solo haya un registro por persona (no son medidas repetidas),
figurando únicamente en uno de los niveles de cada factor, pero puede se puede problematizar
si por el tipo de relación entre los sujetos de la muestra, la puntuación de unos sujetos puede
influir sobre la de otros.

10
Pero, al contrario que con el ANOVA de un factor, para el ANOVA de múltiples factores no hay
pruebas de contraste alternativas específicas en caso de no cumplimiento de los supuestos
(y el SPSS no ofrece ninguna solución al respecto), por lo que puede ser necesario recurrir a
estrategias como la transformación de las puntuaciones de la variable dependiente o al análisis
no paramétrico de cada factor por separado.

Llega más lejos

Aunque no hay un consenso técnico respecto a qué vías alternativas utilizar cuando no se
pueden asumir los supuestos del ANOVA de dos factores, en los siguientes enlaces se plantean
algunas sugerencias: Oliver-Rodríguez et al., 2009 y Serra-Añó, 2014.

Respecto al tamaño del efecto, el indicador más habitual en los modelos de ANOVA es la ya
mencionada eta cuadrado, que estima la proporción de varianza compartida entre factor y
variable dependiente. Pero, en el caso del ANOVA de dos factores, en realidad se pueden indicar
para diferentes tipos de efectos. Por un lado, una medida general basada en todos los efectos de
los factores de forma conjunta sobre la variable dependiente y, por otro lado, tres medidas
individuales de cada efecto por separado (factor 1, factor 2 e interacción factor 1 × factor 2). En
el contexto del SPSS, la medida del efecto global se señala como R cuadrado, y también se ofrece
una corrección más recomendable que ajusta el efecto con los grados de libertad denominada R
cuadrado corregida, y los tamaños de los efectos individuales se presentan designados como
eta cuadrado parcial. Respecto a la interpretación de estos indicadores (como proporciones que
son), cuanto más se alejen de 0 y se acerquen a la unidad, mayor magnitud de efecto se podrá
considerar.

4.2.3. Comparaciones múltiples: efectos principales y efectos simples

Los estadísticos F que contrastan la hipótesis nula de los tres efectos en un ANOVA de dos
factores (factor 1, factor 2 e interacción factor 1 × factor 2) se realizan como contrastes
globales de las diferencias de todas las categorías de los factores, es decir, su rechazo permite
concluir que no todos los grupos son iguales, pero no permite concretar qué categorías difieren
de otras. Para conocer con exactitud el significado de estas diferencias es necesario recurrir a
comparaciones múltiples posteriores a los contrastes globales.

Sobre las comparaciones post hoc de los factores por separado, denominados en este contexto
comparaciones de efectos principales, los procedimientos de contraste son equivalentes a los
expuestos respecto al ANOVA de un factor: pruebas post hoc como Tukey, Sheffé, Games-
Howell o T3 de Dunnet, en las que se comparan por pares las categorías de cada factor, para
ubicar las diferencias estadísticamente significativas (ver unidad anterior). Pero es relevante
señalar que, si alguno de los factores contemplados solo tiene dos niveles, no es necesario este
post hoc para ese factor, ya que no hay ambigüedad respecto a entre qué pares de categorías
existe la diferencia con el contraste global.

11
Figura 5. Comparaciones múltiples de efectos principales y efectos simples.

Pero la interpretación de los efectos principales puede verse subordinada por el contraste referido
a la interacción entre factores, ya que, si esta interacción resulta estadísticamente significativa,
los efectos principales pasarán a un segundo plano. Para comprobar los factores con respecto a
cada intersección de categorías (combinación concreta de niveles), se tiene que recurrir a las
comparaciones múltiples denominadas de efectos simples. Estos contrastes implican realizar
múltiples contrastes parciales con el estadístico F, contrastando las diferencias de la VD entre
niveles de un factor, teniendo en cuenta únicamente un solo nivel del otro factor cada vez. Como
se realizan múltiples contrastes sucesivos, puede aumentar la tasa de error tipo I (rechazar la
hipótesis nula cuando esta es verdadera en la población), por lo que la recomendación es ajustar
la significación de estos contrastes mediante la corrección de Bonferroni. En SPSS no existe una
opción preconfigurada para los contrastes de efectos simples, por lo que será necesario solicitar
el contraste mediante comandos de sintaxis del programa (ver después). Un contraste
estadísticamente significativo en un efecto simple señala que el efecto del factor sobre la VD es
significativo cuando los sujetos presentan el nivel particular del otro factor contrastado en ese
efecto, pero no es generalizable a otros niveles del segundo factor.

Ejemplo para aclarar el concepto de contraste de efectos simples:

Recuperando el enunciado del ejemplo del apartado anterior, si después de realizar los
contrastes de hipótesis nula globales la interacción entre el factor «actitud del juez» y el
factor «nivel de ansiedad» resulta ser estadísticamente significativa, será relevante estudiar
los efectos simples. En este caso las comparaciones múltiples implicarán realizar contrastes
parciales entre los subgrupos que se corresponden a las «casillas» de intersección de
categorías representadas en la siguiente tabla.

Ansiedad
(F2)

Bajo Medio Alto

Actitud juez Distante- Distante-


(F1) Distante Distante-bajo medio alto

Cercana- Cercana-
Cercana Cercana-bajo medio alto
Tabla 3. Ejemplo de comparaciones múltiples de efectos simples.

12
De esta forma, para el factor 1 «actitud del juez» con respecto al factor 2 se podrán
realizar 3 contrastes de efectos simples (uno para cada categoría del factor 2):

F1 efectos simple 1: distante-bajo <=> cercana-bajo

F1 efecto simple 2: distante-medio <=> cercana-medio

F1 efecto simple 3: distante-alto <=> cercana-alto

Mientras que si lo enfocamos desde el factor 2 «nivel de ansiedad» se podrán realizar 2


contrastes de efectos simples (uno para cada categoría del factor 1):

F2 efecto simple 1: distante-bajo <=> distante-medio <=> distante-alto

F2 efectos simple 2: cercana-bajo <=> cercana-medio <=> cercana-alto

4.2.4. Ejecución de ANOVA de dos factores en SPSS

Práctica:

Prueba de ANOVA de dos factores en SPSS:

Analizar- Modelo lineal general-Univariante:

• Variable dependiente: Seleccionar variable cuantitativa.


• Factores fijos: Seleccionar las dos variables categóricas que generan las
agrupaciones en la muestra.
• Botón «Opciones»: Seleccionar los dos factores y la interacción para el cuadro
«Mostrar las medias para» y después marcar en visualización «Estadísticos
descriptivos»; «Prueba de homogeneidad de varianzas», «Levene» y «Estimaciones
del tamaño del efecto» (para eta cuadrado).
• Botón «Post Hoc»: Seleccionar los dos factores para el cuadro «Pruebas Post Hoc
para» y después marcar «Tukey» y «Scheffe» (para comparaciones múltiples efectos
principales).
• Botón «Gráficos»: Seleccionar en «Eje Horizontal» al factor con mayor número de
categorías y en «Líneas separadas» al factor con menor número de categorías.
Después darle al botón «Añadir» y al botón «Continuar».

Para solicitar además comparaciones múltiples de efecto simples (por si la interacción


resulta significativa, p ≤ 0,05), añadir a los pasos anteriores:

• Botón «Opciones»: Marcar «Comparar los efectos principales» debajo de recuadro


de «Mostrar las medias para» y seleccionar «Bonferroni» en «Ajuste del Intervalo de
confianza» y botón «Continuar».
• En el cuadro de dialogo principal de univariante darle al botón «Pegar» en vez de
«Aceptar». Se abrirá una ventana de «Sintaxis» con los comandos que se
corresponden a ANOVA solicitada. En «Sintaxis» buscar las líneas de código que
ponen:

13
o /EMMEANS=TABLES(Nombre del factor1) COMPARE ADJ(BONFERRONI)
o /EMMEANS=TABLES(Nombre del factor2) COMPARE ADJ(BONFERRONI)
• Sustituir las líneas anteriores por las siguientes:
o /EMMEANS=TABLES(Nombre de factor 1*Nombre de factor 2)COMPARE(Nombre
de Factor1) ADJ(BONFERRONI)
o /EMMEANS=TABLES(Nombre de factor 1*Nombre de factor 2)COMPARE(Nombre
de Factor2) ADJ(BONFERRONI)
• Sin salir del visor de sintaxis, darle al botón «Ejecutar selección» (símbolo play
verde).

Figura 6. Salida de resultados de SPSS prueba ANOVA de dos factores (actitud del juez y nivel de ansiedad previo)
sobre calidad de testimonio, parte 1: descriptivos, gráficos y prueba de Levene.

14
Figura 7. Salida de resultados de SPSS prueba ANOVA de dos factores (actitud del juez y nivel ansiedad previo) sobre
calidad de testimonio, parte 2: contrastes de hipótesis nulas globales de efectos intersujetos.

Figura 8. Salida de resultados de SPSS prueba ANOVA de dos factores (actitud del juez y nivel ansiedad previo) sobre
calidad de testimonio, parte 3: comparaciones múltiples de efectos simples de interacción.

15
4.3. ANOVA de un factor de medidas repetidas

En los apartados anteriores se ha presentado la lógica de los modelos ANOVA cuando se pretende
estudiar el efecto de un factor a través de las diferencias intersujetos. Esto implica que los sujetos
solo se ubican con su medida en un único nivel de cada factor y, por tanto, los grupos generados
incluyen diferentes sujetos. Sin embargo, entre las opciones de diseño metodológico para valorar
los efectos de VI sobre VD, también existe la posibilidad de hacerlo realizando la comparativa
de forma intrasujeto. Si se dispone de un factor de forma intrasujeto, todos los sujetos de la
muestra van a pasar por todos los niveles del factor y, por tanto, los grupos de medidas que
se comparan se corresponden a los mismos sujetos en diferentes momentos.

Figura 9. Diseños de medidas repetidas.

A nivel metodológico esta disposición tiene ventajas evidentes, como suprimir la fuente de error
debida a la posible no equivalencia de los grupos (diferencias de base entre los individuos de cada
grupo) o requerir tamaños muestrales más reducidos para estudiar los efectos, pero también
desventajas, como la posibilidad de efectos acumulativos distorsionadores debido a aplicar
sucesivamente diferentes niveles del factor (ya sea de aprendizaje entre condiciones o
solapamiento de efectos y cambios). Por eso, la idoneidad de esta estrategia debe valorarse desde
un marco general del estudio teniendo en cuenta la naturaleza del factor.

Nota

El simple efecto del paso del tiempo sobre la variable dependiente es un factor bastante
habitual en este tipo de diseños, como, por ejemplo, comprobar el deterioro de la calidad
del recuerdo de un testigo según se aleja temporalmente de los acontecimientos declarados,
comprobado sobre los mismos sujetos en diferentes momentos.

16
El modelo de ANOVA de medidas repetidas es una herramienta específica para valorar el efecto
de los factores dispuestos de forma intrasujeto. Cuando solo se tiene en cuenta un único factor
se puede considerar una generalización de la lógica de la prueba t de Student para muestras
relacionadas, pero para la situación donde existan más de dos medidas (y por tanto más de
dos medias grupales).

Aunque el contraste de hipótesis nula tenga ciertos paralelismos conceptuales con el ANOVA
factorial entre sujetos, la disposición de medidas repetidas implica que sea necesario partir de
supuestos diferentes y sean necesarias estimaciones de elementos particulares. En este
contexto, las puntuaciones de las medidas recogidas en la muestra tienen tres fuentes de
variabilidad:

• Las diferencias entre niveles del factor (medidas repetidas), denominadas intrasujetos.
• Las diferencias que se dan entre los individuos que configuran la muestra, denominadas
intersujetos.
• Un término de error que en este contexto se define como la interacción entre las
diferencias entre sujetos y las diferencias intrasujetos (que sustituye a la variabilidad
intragrupos de los modelos anteriores como estimación de fuentes no controladas).

Para contrastar la hipótesis nula de no diferencia entre momentos de medida, será necesario
estimar las fuentes de variabilidad mediante el procedimiento de suma de cuadrados, para
calcular la media cuadrática intrasujeto y la media cuadrática error (intrasujeto × intersujeto).
La división del primer elemento entre el segundo expresa la discrepancia entre la variabilidad de
los diferentes promedios de los niveles del factor y la variabilidad que cabría esperar por azar,
independientemente de las medias de cada categoría. Este cociente es el estadístico F, que se
comparará con la distribución teórica de referencia para obtener el valor de significación.

4.3.1. Supuestos del ANOVA de medidas repetidas y alternativas

Este modelo de ANOVA sigue implicando realizar una prueba inferencial paramétrica, por lo que
se vuelve a requerir asumir una serie de supuestos sobre la distribución de la variable
dependiente. El primer supuesto es el de distribución normal en la población, que tiene las
mismas implicaciones y procedimientos de comprobación que se han especificado anteriormente,
incluidos la relativa robustez de los modelos de ANOVA ante el no ajuste estricto de este
supuesto. Cuando se trabaje con muestras reducidas y los contrastes de normalidad señalen
discrepancias estadísticamente significativas, es recomendable, para el contraste principal de
hipótesis nula, utilizar una alternativa no paramétrica que convierta las puntuaciones
cuantitativas de la VD a rangos ordinales, como es la prueba de Friedman (que es una extensión
de la prueba de Wilcoxon para más de dos categorías).

El segundo supuesto es particular de esa situación de medidas repetidas y sustituye al supuesto


de homogeneidad de varianzas y de independencia de observaciones, tal y como se
especifican en el ANOVA factorial entre sujetos (aunque en cierto sentido se readaptan a la lógica
del modelo, ya que las medidas están necesariamente relacionadas), por el denominado
supuesto de esfericidad o circularidad de la matriz-varianzas covarianzas. Este supuesto, en
vez de establecerse con respecto a cada grupo-momento comparado, se plantea respecto a la
homogeneidad de varianza de las diferencias entre pares de medidas. Por ejemplo, si el factor
tiene tres niveles, se podrían considerar tres momentos de medida, entre los cuales se pueden

17
contrastar tres diferencias entre pares: primer momento respecto a segundo momento, primer
momento respecto a tercer momento y segundo momento respecto a tercer momento. El
supuesto de esfericidad requiere que las varianzas de las diferencias entre pares de medidas
no resulten significativamente diferentes, es decir, que sean equivalentes entre los pares de
medidas. En caso de no cumplir este supuesto, aumenta el riesgo de rechazar la hipótesis nula
cuando esta es cierta, con el uso del estadístico F. Para comprobar su cumplimiento, se puede
recurrir a la prueba de esfericidad de Mauchly, que con un resultado estadísticamente
significativo (p < 0,05) señala la imposibilidad de aceptar el supuesto de esfericidad.

Figura 10. Supuesto de esfericidad con un factor de tres niveles.

Pese a que la esfericidad sea un requisito fundamental para utilizar el estadístico F, en la


investigación de fenómenos psicológicos es bastante habitual que las medidas más próximas
en el tiempo sean más parecidas entre sí que las medidas más lejanas en el tiempo y, por tanto,
esa igualdad entre varianzas de diferencias de pares sea difícil de cumplir. Por lo que será muy
frecuente tener que recurrir a alternativas que soporten condiciones de no esfericidad. Las
soluciones más habituales al respecto se agrupan en dos categorías:

Alternativas a estadístico F en condiciones de no esfericidad

Modificación de grados de libertad del contraste

• Se basan en multiplicar los grados de libertad del contraste del estadístico F por un
índice corrector denominado Epsilon.
• El índice Epsilon ajusta a la baja los grados de libertad, haciendo el contraste más
conservador (más exigente para señalar una p reducida).
• El SPSS ofrece diferentes procedimientos de estimación de Epsilon: Greenhouese-
Geisser, Huynh-Feldt y Límite inferior.
• En caso de resultados discrepantes, seleccionar la alternativa que más potencia
estadística presente.

Contrastes multivariados

• Se cambia el modelo de ANOVA por contrastes multivariados (MANOVA), que se basan


en cálculos matriciales complejos, que consideran las medidas repetidas como varias VD
simultáneamente.
• Son la alternativa de elección cuando se cuenta con una muestra de sujetos grande,
pero pierden potencia con muestras pequeñas.

18
4.3.2. Contrastes múltiples y tamaño del efecto

La significación del contraste de hipótesis nula global hace referencia a las diferencias entre
medias de todas las categorías (momentos de medida) del factor de forma general, pero no
identifica entre qué par de momentos se ubican esas diferencias. Por lo que, si la prueba global
resulta ser estadísticamente significativa, será necesario realizar comparaciones múltiples
post hoc. En el contexto de medidas repetidas, es recomendable realizar estas comparaciones
por pares de medidas utilizando la prueba t de Student para muestras relacionadas, pero
corrigiendo su tasa de error mediante el método Bonferroni.

Figura 11. Comparaciones múltiples y tamaño del efecto.

Al disponer una media cuadrática intrasujetos referida al efecto del factor y una media cuadrática
de error, es posible calcular un indicador de tamaño del efecto que expresa la proporción de
variabilidad que comparten factor y variable dependiente (varianza común), de forma
equivalente al procedimiento que realiza con el ANOVA factorial intersujetos. En el SPSS se
muestra el indicador eta cuadrado parcial, que como proporción implica que cuanto más se
acerque a la unidad, mayor será la relación entre VI y VD. Algunos autores proponen la alternativa
de cálculo la medida de asociación de omega cuadrado (Pardo y San Martin, 2010), cuyas
estimaciones son algo más conservadoras y precisas que eta cuadrado, pero el SPSS no ofrece
esta opción, por lo que si se pretende estimarlo por este procedimiento, sería necesario calcularlo
de forma externa al programa.

4.3.3. Ejecución de ANOVA de un factor de medidas repetidas en SPSS

Nota

En el SPSS los diferentes momentos de medida de la variable dependiente figurarán como


variables separadas en la base de datos y será necesario, en la ejecución del análisis,
señalar al programa que se corresponden con niveles de un mismo factor intrasujeto (ver
instrucciones a continuación).

19
Práctica:

Prueba de ANOVA de medidas repetidas de un factor:

Analizar- Modelo lineal general-Medidas repetidas:

• Definir factor y VD: En «Nombre de factor intra-sujetos» introducir


denominación para la VI y en «Número de niveles» explicar cuántas medidas
repetidas contiene (cuántos momentos de medida) y darle al botón «Añadir». En
nombre de medida introducir denominación de la VD cuantitativa que se está
midiendo en todos los momentos. Después de estos dos pasos, darle al botón
«Definir».
• En variables intrasujetos: Introducir en orden temporal los momentos de medida
en las líneas que se han generado para cada nivel del factor.
• Botón «Opciones»: Seleccionar el factor para el cuadro «Mostrar las medias para»
y después marcar «Comparar los efectos principales» debajo del recuadro de
«Mostrar las medias para» y seleccionar «Bonferroni». En visualización marcar
«Estadísticos descriptivos»; «Estimaciones del tamaño del efecto» (para eta
cuadrado) y «Potencia observada». Finalmente, el botón «Continuar».
• Aceptar y visualizar resultados: Empezar por comprobar significación de «Prueba de
esfericidad de Mauchly», para decidir qué contraste mirar para valor p adecuado
(«Sig.» en SPSS). Si contraste principal significativo, comprobar entre qué medidas
está la diferencia en tabla «Comparaciones por pares».

Alternativa no paramétrica (no poder asumir supuesto de normalidad):

• Analizar- Pruebas no paramétricas- Cuadros de diálogo antiguos- k muestras


relacionadas- Seleccionar las variables de la base de datos que se corresponden con
los momentos de medida (categorías del factor intrasujetos) en «Variables de
contraste»-Tipo de prueba Friedman-Aceptar.
• Salida de resultados. Fijarse en «Sig. Asintót.» (valor p), pero no interpretar rangos
promedios como medias.

20
Figura 12. Salida de resultados de SPSS prueba ANOVA de un factor de medidas repetidas, efecto del paso del tiempo
(categorial) sobre calidad del recuerdo de los testigos (cuantitativa), parte 1: Prueba de esfericidad y contrastes
principales de hipótesis nula con alternativas a F sin ajuste.

Figura 13. Salida de resultados de SPSS prueba ANOVA de un factor de medidas repetidas, efecto del paso del tiempo
(categorial) sobre calidad del recuerdo de los testigos (cuantitativa), parte 2: Estadísticos descriptivos y comparaciones
múltiples post hoc con Bonferroni.

21
4.4. ANOVA factorial mixto

En esta unidad didáctica se están presentando los modelos de ANOVA de forma separada y
elemental, pero la flexibilidad de estos permite combinar diferentes modalidades según las
necesidades de los diseños de investigación particulares. En este apartado, se va a exponer una
estructura de diseño-análisis, que combina los modelos presentados en los dos anteriores
apartados y que es relativamente frecuente en la investigación en psicología, especialmente en
estudios sobre efecto de intervenciones psicológicas (ya sean estas terapéuticas,
psicoeducativas o rehabilitadoras).

Nota

Este diseño de medidas parcialmente repetidas tal vez te resulte familiar, dado que es la base
de la estructura de los famosos ensayos clínicos controlados en biomedicina. El combinar
las comparativas intragrupo e intergrupo tiene el potencial de superar las limitaciones
provenientes de solo tener en cuenta una de las dos perspectivas.

El denominado ANOVA de dos factores de medidas parcialmente repetidas contempla el


análisis de dos factores de forma simultánea, pero cuando uno de los factores se dispone de
forma entre sujetos/intergrupos (distintos sujetos en cada categoría) y el otro factor de se
plantea intrasujetos (mismos sujetos en diferentes momentos en todas las categorías). Cuando
ambos factores son manipulados experimentalmente, se suele designar esta situación como
diseño factorial mixto, pero cuando el factor entre sujetos no es manipulado directamente
por el experimentador, sino que es un atributo del participante (características previas propias
del sujeto como pueden ser el sexo o los antecedentes penales), se denomina diseño split-plot
o diseño de perfiles.

Ejemplo de diseño factorial mixto:

En el contexto de los centros correccionales de menores, se selecciona una muestra de


adolescentes con antecedentes de delitos violentos, con la que se pretende validar un
protocolo de intervención psicológica que disminuya significativamente su nivel de
agresividad en las interacciones personales con sus iguales. Para ello, se asigna de forma
aleatoria la mitad de los menores seleccionados a la condición de ser tratados con el nuevo
protocolo (grupo experimental), mientras que la otra mitad durante el mismo periodo
recibirá las atenciones y actividades educativas habituales en el centro (grupo control). Su
nivel de agresividad en la interacción será evaluado de forma cuantitativa antes y después
del periodo de intervención en ambos grupos. De esta forma, se dispondrá de 4 medidas
de la VD correspondiente al momento previo de los dos grupos y al momento posterior de
los dos grupos.

22
Momentos de
medida-cambio (F2)

ANTES (PRE) DESPUÉS (POST)

Grupo (F1) Experimental (tratado) Agresividad Agresividad


Pre-Experimental Post-Experimental

Control (no tratado) Agresividad Agresividad


Pre-Control Post-Control

Tabla 4. Ejemplo de diseño.

El factor intergrupos (F1) se corresponde con ser asignado a un nivel de tratamiento o a


otro sin diferenciar momentos de medida (los sujetos no están en los dos niveles a la vez).
Mientras que el factor intrasujeto (F2) se corresponde con los dos momentos de medida,
sin diferenciar los dos grupos de tratamiento (toda la muestra antes y después del periodo
de intervención). Pero lo que realmente nos interesa para determinar la eficacia del nuevo
protocolo es la interacción (F1 × F2) entre estar en un grupo y otro de tratamiento y el
cambio entre antes y después, ya que los factores por separado no nos informarían de este
hecho. Una interacción estadísticamente significativa implicaría poder rechazar la hipótesis
nula de que no hay diferencias entre grupos respecto al cambio en el nivel de agresividad,
es decir, de si realmente la evolución del grupo tratado es diferente a la del grupo no tratado
respecto a la variable dependiente.

4.4.1. ANOVA de dos factores (2 × 2) con medidas repetidas en uno

El tener en cuenta al mismo tiempo un factor intergrupo y un factor intrasujeto permite comparar
entre diferentes grupos de intervención al mismo tiempo que se tiene en cuenta su evolución
diferencial (seguimiento). Además, de esta forma, se reduce significativamente la variabilidad
de error debida a las condiciones por separado.

Como ya se explicó anteriormente, cuando se realiza un ANOVA con dos factores, se pueden
estimar dos efectos principales (uno con cada factor) y un efecto de interacción entre ambos
factores (F1 × F2); esto también implica que se pueden realizar tres contrastes de hipótesis nula
diferentes, uno para cada factor. Pero, a diferencia de la situación en que la que los dos factores
son intergrupos, no existe una única fuente de variabilidad de error estimable y tampoco un
único procedimiento para estimar las medias cuadráticas de los efectos.

23
Por ello, para el contraste de hipótesis nula se tendrán en cuenta diferentes elementos:

Estadístico F de F1 intergrupo = Media cuadrática intergrupo (efecto F1)


Media cuadrática intragrupo (error en F1)

Estadístico F de F2 intrasujeto = Media cuadrática intrasujeto (efecto F2)


Media cuadrática intersujeto x intrasujeto (error en F2)

Estadístico F interacción F1 × F2 = Media cuadrática intergrupo x intrasujeto (efecto F1 × F2)


Media cuadrática intersujeto x intrasujeto (mismo error que en F2)

Tabla 5. Cálculo de los diferentes estadísticos F en ANOVA factorial mixta.

Al combinar ambos tipos de factores, se han de tener en cuenta los supuestos requeridos en
los dos modelos de ANOVA, que se corresponden con los mismos (factorial y medidas
repetidas). Sobre el supuesto de distribución normal de la variable dependiente, habitual en
las pruebas paramétricas, solo es relevante estudiar su cumplimiento cuando la muestra de
estudio es muy reducida o la distribución cuenta con casos con puntuaciones extremas muy
alejadas de su centro muestral, ya que, en la mayoría de las circunstancias, los modelos de
ANOVA se muestran resistentes al no ajuste de este supuesto. Respecto a los supuestos de
independencia de observaciones y homogeneidad de la varianza, se tendrán que asumir
respecto al factor intergrupo y, por tanto, comprobar con las agrupaciones de las categorías de
ese factor, tal y como se ha explicado en el ANOVA factorial (prueba de Levene).

Dado que tanto el factor intrasujeto como el efecto de la interacción contemplan la situación
de medidas repetidas, vuelve a ser necesario asumir el efecto de esfericidad respecto a F2
(comprobación con prueba Mauchly como se explicó en el anterior modelo), pero, además, se
añade un requisito adicional respecto a las matrices varianza-covarianza que se generan en
la interacción de cada nivel de F1, por el cual se requiere que estas sean equivalentes. Este
último requisito en el SPSS se comprueba con la prueba de Box, cuyo resultado estadísticamente
significativo (p ≤ 0,05) no permitiría asumirlo. Estos dos supuestos juntos se enuncian como
esfericidad multimuestra y, si no se cumplen, será aconsejable utilizar alternativas como la
corrección de los grados de libertad epsilon para el contraste del estadístico F. Pero es
importante destacar que estas condiciones y correcciones de esfericidad no serán necesarias (o
más bien posibles) cuando el factor intrasujeto solo disponga de dos medidas repetidas (dos
categorías), porque solo existe un par de observaciones.

Lo referido anteriormente respecto a tamaños del efecto y comparaciones múltiples post hoc
también es aplicable a estas situaciones mixtas, pero teniendo en cuenta que, como existen dos
factores, se pueden diferenciar los efectos principales de cada factor por separado y los efectos
simples que se derivan de la interacción. Aunque en el diseño elemental de 2 × 2 no serán
necesarias comparaciones múltiples, ya que no hay ambigüedad entre que grupos, existe la
diferencia en el contraste de hipótesis nula principal, y solo será necesario cuando los factores
tengan más de dos categorías.

Aunque en este análisis se contrastan los tres efectos, a nivel práctico lo que suele importarle
realmente al investigador en este tipo de diseños es el efecto de interacción.

24
4.4.2. Ejecución de ANOVA de dos factores con medidas repetidas en uno en
SPSS

Práctica:

Prueba de ANOVA de dos factores con medidas repetidas en un solo factor:

Analizar- Modelo lineal general-Medidas repetidas:

• Definir factor y VD: En «Nombre de Factor intra-sujetos» introducir


denominación para el factor de medidas repetidas F2 y en «Número de niveles»
explicar cuántas medidas repetidas contiene (cuántos momentos de medida) y darle
al botón «Añadir». Como nombre de medida introducir la denominación de la VD
cuantitativa que se está midiendo en todos los momentos. Después de estos dos
pasos darle al botón «Definir».
• En variables intrasujetos: Introducir en orden temporal los momentos de medida
en las líneas que se han generado para cada nivel del factor (F2).
• En factor intersujetos: Introducir el factor intergrupo F1 (el que no es de medidas
repetidas).
• Botón «Gráficos»: Seleccionar en «Eje Horizontal» al factor intrasujetos (medidas
repetidas) y en «Líneas separadas» el factor intergrupos. Después darle al botón
«Añadir» y al botón «Continuar».
• Botón «Post Hoc» (solo necesario si F1 tiene más de dos niveles): Seleccionar
«Factor intersujetos» y marcar «Tukey».
• Botón «Opciones»: Seleccionar los dos factores y la interacción para el cuadro
«Mostrar las medias para» y después marcar «Comparar los efectos principales»
debajo de recuadro de «Mostrar las medias para» y seleccionar «Bonferroni» (solo
si F2 tiene más de dos niveles). En visualización marcar «Estadísticos
descriptivos»; «Estimaciones del tamaño del efecto» (para eta cuadrado);
«Potencia observada»; «Pruebas de homogeneidad». Finalmente, botones
«Continuar» y «Aceptar» para ejecutar análisis.

25
Figura 14. Salida de resultados de SPSS prueba ANOVA de dos factores con medidas repetidas en uno (2 × 2), F1 =
Grupo tratamiento / Grupo Control, F2 = Antes / Después y VD = Agresividad interpersonal. Comprobación supuestos
intrasujeto y contrastes principales de los tres efectos (F1, F2 y F1 × F2).

4.5. Análisis de la covarianza: ANCOVA

Como se comentó en la UD 2, una de las funciones principales del diseño metodológico de estudios
es controlar, en la medida de lo posible, las fuentes de error sistemáticas que pudiesen
distorsionar las relaciones entre variables de interés para el investigador. Sin embargo, a nivel
práctico, este control no siempre es posible en la ejecución del estudio (por ejemplo, en un diseño
cuasiexperimental).

El análisis de la covarianza posibilita un medio de control adicional de variables extrañas


(edad, inteligencia, ansiedad, etc.). Pero, para poder realizar este «control estadístico posterior»
a la ejecución, se habrá tenido que registrar la variable que se pretende controlar de forma
cuantitativa (a la que se denomina covariable) en los sujetos de la muestra, así que, en cierto
sentido, también se habrá tenido que contemplar esta estrategia de forma previa.

26
El ANCOVA es en realidad una técnica general de análisis que puede aplicarse en diferentes
modelos de ANOVA y diseños de investigación (univariado, multivariado, intergrupos,
intrasujetos, mixto…). El objetivo de esta técnica es eliminar la influencia de las covariables
sobre la variable dependiente, en el curso del análisis de la varianza. De esta forma, se ajustarán
las puntuaciones de la variable dependiente, evitando el posible sesgo provocado por la
covariable. Además, así también se aumentará la precisión de la estimación de los efectos. Es
decir, al incluir la covariable en el modelo lineal, se reducirá el término de error y se ajustarán
los efectos de los factores de interés. Esta estrategia de control solo tendrá sentido si
efectivamente la covariable se relaciona linealmente con la variable dependiente.

Figura 15. Ecuación lineal de efectos ANCOVA con un solo factor intergrupo.

Para lograr el objetivo descrito, la técnica de ANCOVA combina en un mismo procedimiento dos
métodos de análisis: regresión lineal y ANOVA. De forma simplificada y resumida, el
procedimiento con un factor y una covariable consiste en (Balluerka y Vergara, 2002):

• Realizar un análisis de regresión de la variable dependiente con el factor y la covariable


como predictores para calcular el coeficiente que indica la proporción de varianza de la
VD explicada por el factor y covariable de forma conjunta.
• Realizar otro análisis de regresión de la VD solo con la covariable como predictor,
obteniendo un coeficiente que expresa la proporción de varianza explicada por la
covariable.
• La diferencia entre las dos proporciones anteriores representará la parte de la varianza
explicada solo por el factor intergrupos (por las diferencias entre categorías).
• Por último, se ejecutará el ANOVA de un factor, pero sobre unas puntuaciones que se han
ajustado eliminando la influencia de la covariable.

Al ajustar los efectos, lo que se trata de contrastar es cuál va a ser el efecto del factor si todos
los grupos-categoría tienen la misma media en la covariable. Esto provoca que al realizar el
ANCOVA, las medias de VD en los diferentes grupos se ajusten a lo que se denomina medias
corregidas (Pardo y Ruiz, 2012).

4.5.1. Supuestos particulares de la técnica de ANCOVA

Los supuestos requeridos de un ANCOVA estarán determinados por el tipo del modelo ANOVA
en el que se esté aplicando, por ejemplo, en una situación univariada con un factor intergrupo
sus supuestos serán: normalidad distribución, independencia observaciones y homogeneidad de
varianzas, tal y como se ha explicado en anteriores apartados. Pero, de forma adicional a estos
supuestos, al incluir una o varias covariables se tendrán que cumplir adicionalmente unos
requisitos adicionales particulares de esta técnica:

27
Supuestos particulares de la ANCOVA

La covariable está medida sin error (fiabilidad)

• Se asume que los valores de la covariable son fijos porque se han medido sin error
(imprecisión e inconsistencia).
• En la práctica, las medidas en psicología suelen tener cierto grado de error, pero si la
fiabilidad del instrumento de medida es suficientemente elevada, el análisis no se verá
afectado (coeficientes de más de 0,80).

Existe una relación lineal entre covariable y variable dependiente

• Se tiene que evidenciar una relación lineal significativa entre VD y covariable.


• Esto se puede comprobar con un coeficiente de correlación lineal (r de Pearson)
elevado y estadísticamente significativo, además de observando la tendencia de la nube
de puntos de la representación gráfica de la covarianza de sus valores.

Independencia entre variable independiente y covariable

• El factor no ejerce ningún efecto sobre la covariable, lo que significa que no hay
diferencia significativa entre categorías del factor en el valor promedio de la covariable.
• Se puede comprobar realizando una ANOVA de nuevo con la variable independiente
como factor, pero con la covariable como variable dependiente de este análisis. Un
resultado estadísticamente significativo (p ≤ 0,05) en este análisis impide asumir el
supuesto.

Homogeneidad de pendientes de regresión (no efecto interacción factor y covariable)

• El grado de relación lineal existente ente covariable y VD tiene que ser el mismo en
todos los grupos-categoría del factor.
• Esto implica que no existe efecto de interacción entre VI y covariable sobre la VD.
• Se puede comprobar realizando un ANCOVA personalizado, en el que se especifique
estudiar el efecto interacción entre VD y VI. Un resultado estadísticamente significativo
en la interacción (p ≤ 0,05) impide asumir el supuesto.

28
Ejemplo de investigación con covariable:

Siguiendo la línea de investigación sobre la calidad y coherencia de la declaración emitida en


la sala de tribunal por un testigo, se pretende estudiar el efecto del grado de presencia de
espectadores en audiencias públicas (factor) sobre esta calidad del testimonio medida de
forma cuantitativa por evaluadores externos (variable dependiente). El factor audiencia se
establece de forma intergrupos (los sujetos van a ser asignados solo a una de las categorías)
en tres categorías-condiciones experimentales: A = ningún espectador ajeno al proceso, B
= asistencia de público moderada (sala a media capacidad) y C = asistencia de público muy
numerosa (sala en su máxima aforo).

Pero, de forma adicional, se considera que la capacidad de razonamiento verbal de los


sujetos de la muestra puede distorsionar la relación estudiada entre el factor audiencia y la
calidad del testimonio, es decir, se considera una variable extraña relevante a controlar. Por
ello, se decide medir el coeficiente intelectual verbal con pruebas psicométricas
estandarizadas de forma previa al estudio. Esta variable se podría considerar como una
posible covariable en el ANCOVA del análisis de resultados posterior debido a que:

• CI verbal y calidad de testimonio (VD) seguramente vayan a estar relacionados.


• CI verbal es independiente del factor audiencia (no se ve afectado por el factor).
• CI verbal se presenta relacionado con VD de la misma forma en los tres niveles del
factor (es decir, no existe interacción factor y covariable respecto a VD).
• CI verbal se puede medir de forma relativamente fiable gracias a las pruebas
psicométricas estandarizadas.

4.5.2. Ejecución de ANCOVA de un solo factor intergrupo en SPSS

Nota

Aunque en este apartado se presente el procedimiento ejemplificado con un solo factor


intergrupo y una sola variable dependiente, en realidad la posibilidad de incluir covariables la
encontramos en todas las opciones ANOVA-MANOVA de la categoría de análisis «modelo
lineal general» en el SPSS.

29
Práctica:

Prueba de ANCOVA de con un factor intergrupo en SPSS:

Comprobar supuestos para uso de covariable:

• Relación lineal entre VD y covariable: Analizar- Correlaciones-Bivariada- r de


Pearson (ver UD 3, explicación de procedimiento).
• Independencia entre VI y covariable: Analizar- Comparar medias– ANOVA de un
factor- con covariable como VD (ver UD 3, explicación de procedimiento ANOVA de
un factor). Se asume si p > 0,05.
• Homogeneidad de pendientes de regresión: Analizar- modelo lineal general-
Univariante- ubicar VI, VD y covariable según instrucciones ANCOVA (ver luego)-
Botón «Modelo»- Seleccionar «Personalizado»- Seleccionar en la lista del modelo
a la VI y la covariable «Construir términos interacción»- Seleccionar
simultáneamente VI y covariable- Botón «Continuar» y «Aceptar» para ejecutar
análisis- Solo mirar término de interacción e ignorar el resto. Se asume si
interacción p > 0,05.

Analizar- Modelo lineal general-Univariante:

• Variable dependiente: Seleccionar la variable cuantitativa que tiene el rol de


dependiente (resultado).
• Factores fijos: Seleccionar la variable categórica que actúa como variable
independiente (la que genera los grupos que se comparan).
• Covariable: Seleccionar variable cuantitativa que se quiere controlar en el análisis.
• Botón «Modelo»: Volver a especificar opción «Factorial completo».
• Botón «Opciones»: Seleccionar a la VI para el cuadro «Mostrar las medias para»
(mostrará las medias corregidas respecto al efecto de covariable). En visualización
marcar «Estadísticos descriptivos»; «Estimaciones del tamaño del efecto» (para
eta cuadrado); «Potencia observada»; «Pruebas de homogeneidad». Finalmente,
botón «Continuar» y «Aceptar» para ejecutar análisis.
• Misma interpretación que ANOVA de un factor habitual (efectos ya se han
ajustado), buscando significación que se corresponde con el factor en las tablas de
resultados.

30
Figura 16. Salida de resultados de SPSS comprobación de supuestos para ANCOVA de un factor: VD = Calidad del
testimonio, VI = Tipo de audiencia y Covariable = CI verbal.

4.6. Análisis multivariante MANOVA

El análisis multivariado de la varianza (MANOVA) es una generalización de la lógica de ANOVA


para una situación en la que se quiere analizar el efecto de los factores (variables categóricas),
sobre más de una variable dependiente-criterio (variables cuantitativas) de forma simultánea.
Aunque ante varias variables dependientes en un mismo estudio es técnicamente realizar
sucesivos análisis de ANOVA (univariada) para comprobar el efecto de los factores para cada una,
esto puede resultar en un grave error tanto metodológico como teórico cuando estas variables
dependientes están relacionadas entre sí. Al analizar por separado estas variables relacionadas
se está ignorando el hecho de que comparten varianza y, por tanto, en cada análisis particular
estamos computando varianza que ya hemos tenido en cuenta en análisis anteriores (Catena et
al., 2003). Además, ante estas relaciones, el realizar varias pruebas de hipótesis nula
consecutivas sobre los mismos datos, aumenta el error tipo I (el riesgo de rechazar la hipótesis
nula cuando esta es cierta).

Esto es particularmente importante si de hecho esas variables se pueden agrupar bajo un mismo
constructo teórico. Por ejemplo, tres medidas particulares de activación fisiológica, inquietud
motora y temor cognitivo seguramente vayan a presentar correlación en los sujetos estudiados
al representar diferentes sistemas de respuesta ansiosa y, por tanto, ser parte de un mismo
constructo denominado ansiedad. Lo mismo puede suceder con medidas acerca de atención,
memoria a corto plazo y memoria a largo plazo respecto al constructo deterioro cognitivo.

31
Llega más lejos

En este apartado se presenta una introducción general al MANOVA con el contenido


planificado para los objetivos didácticos de la asignatura, pero si se quiere profundizar más
en su base conceptual, se pueden consultar los siguientes documentos: de Ramos-Álvarez
(2005) y de Montanero (2019).

La hipótesis nula en un MANOVA se establece sobre el conjunto de medias de todos los grupos-
categorías, para todas las variables dependientes de forma simultáneamente. Esto implica que
la estimación de los elementos necesarios para el contraste se tiene que realizar de forma
matricial (matrices en las que una ANOVA univariada representaría un único vector). Aunque se
sigue basando en la comparación entre una variación explicada y variación no explicada (error o
residual), también se computa la relación entre las diferentes variables dependientes en el
proceso de suma de cuadrados. Como el contraste es sobre todas las VD al mismo tiempo, es
necesario generar funciones discriminantes (también llamadas variado), que combinan
linealmente las VD, pero de forma ponderada para maximizar las diferencias entre grupos del
factor. Cuando el factor tiene tres o más categorías se estimarán varias funciones discriminantes,
que servirán para calcular los estadísticos de contraste de hipótesis nula multivariante.

4.6.1. Contraste de hipótesis nula con MANOVA de un factor intergrupos

Al igual que con otros modelos de ANOVA, el MANOVA es una prueba paramétrica que requiere
asumir los supuestos habituales del ANOVA respecto a las variables dependientes, es decir, si
el factor es intergrupos estos serán: distribución normal, independencia de observaciones dentro
de cada VD y homogeneidad de varianza entre categorías del factor. Pero, de forma adicional, el
MANOVA requiere siempre cumplir el requisito de homogeneidad de matrices de covarianza,
que como vimos en el ANOVA de medidas repetidas, se comprueba con la prueba de Box, cuyo
resultado estadísticamente significativo (p ≤ 0,05) no permitiría asumirlo. Por otro lado, el
MANOVA no se recomienda cuando las VD no están correlacionadas entre sí o la muestra de
estudio es muy pequeña, en estas circunstancias es mejor realizar pruebas ANOVA univariadas.

Figura 17. Contrastes de un factor intergrupo.

32
El SPSS ofrece varios estadísticos de contraste multivariado que cumplen la misma función que
cubría el estadístico F en situaciones univariadas: Lambda de Wilks, Traza de Pillai-Barlett,
Raíz Mayor de Roy y Traza de Hotelling-Lawley. Cada uno sigue sus propios procedimientos
de cómputo (aunque todos basados en las funciones de discriminación) y podrán ofrecer valores
de significación diferentes. Para el tipo de variables habituales en psicología la menos
recomendable es la Raíz Mayor de Roy. Aunque en condiciones de cumplimiento de supuestos no
hay mucha diferencia entre las otras tres opciones, cuando no se cumple el supuesto de
normalidad y/o el supuesto de homogeneidad de matrices de covarianza es más potente y robusta
la traza de Pillai-Barlett, aunque también es más exigente para rechazar H 0 (Balluerka y Vergara,
2002). En cualquier caso, para todos los estadísticos se puede establecer el umbral de
significación en p ≤ 0,05, a partir del cual se puede rechazar la hipótesis nula de no diferencia
entre categorías.

Se ha de tener en cuenta que los contrastes multivariados anteriores hacen referencia a una
combinación lineal de todas de las variables dependientes juntas y a las diferencias entre
categorías de forma general. Por lo que, ante un resultado estadísticamente significativo, de este
contraste global, puede ser interesante estudiar sus componentes de forma desglosada
(dependientes, factores y niveles entre factores) en diferentes análisis posteriores tales como:
pruebas F univariadas, análisis Step-Down, análisis de discriminación y contrastes multivariados
parciales.

4.6.2. Ejecución de MANOVA de un factor intergrupo en SPSS

Play

En en los siguientes enlaces puedes visualizar explicaciones extendidas de la ejecución e


interpretación del MANOVA en SPSS: explicación de Field (2013) y explicación de Cuellar
(2020).

Práctica:

Prueba de MANOVA con un factor intergrupo en SPSS:

Analizar- Modelo lineal general-Multivariante:

• Variables dependientes: Seleccionar variables cuantitativas dependientes


relacionadas entre sí.
• Factores fijos: Seleccionar variable independiente categorial que genera los grupos
de comparación.

33
• Botón «Opciones»: Seleccionar factor para recuadro «Mostrar medias para». En
visualización marcar como mínimo «Pruebas de homogeneidad» (también se pueden
solicitar tamaños del efecto, «Potencia observada», «Estadísticos descriptivos»).
Darle a «Continuar».
• Aceptar para ejecutar análisis: En tabla «Contrastes multivariados» mirar valor
de significación en columna «Sig.» de los diferentes estadísticos de contraste, pero
en las filas que se corresponden al factor (no en intersección). Después tomar
decisiones sobre siguientes pasos.

34
Resumen

Los modelos de ANOVA son una categoría de técnicas de análisis estadístico inferencial idóneas
para situaciones en las que se pretende estudiar la relación entre variables independientes o
predictores de tipo categorial (que generan grupos de medidas) y variables dependientes o
criterio de tipo cuantitativo (métricas). Desde el inicio del desarrollo de estas estrategias de
análisis se han vinculado al contexto de la investigación experimental, por lo que se han generado
diversas modalidades de análisis de varianza que se adecuan a diferentes necesidades de diseño
empírico.

De forma general, los modelos ANOVA se basan en contrastar la hipótesis nula de no diferencia
en las VD ente categorías de los factores, para lo cual realizan una estimación de la varianza de
la VD que queda explicada (por los factores) y la varianza que queda sin explicar (error). Los
contrastes estadísticos de estos modelos son pruebas paramétricas que requieren de poder
asumir ciertos supuestos sobre la VD para su ejecución, aunque algunos serán requisitos
particulares de cada modelo.

Los diferentes modelos de ANOVA se disponen para responder a cuatro características básicas de
los diseños de investigación: número de factores, número de variables dependientes, modo de
asignación de sujetos a niveles del factor (condiciones experimentales) y modo de establecer los
niveles del factor. En esta unidad se han destacado las siguientes formas elementales de 5
modelos de ANOVA:

35
Modelo Capacidad de interés

ANOVA factorial Estudiar efectos de factores intragrupos (sujetos diferentes).


Computar simultáneamente varios factores y su posible interacción de
efectos sobre la VD.

ANOVA de medidas Estudiar efectos factores intragrupo (mismos sujetos).


repetidas Posibilitar seguimientos de evolución de VD en los sujetos.

ANOVA factorial mixto Permitir combinar en un mismo análisis factores intragrupos e


intrasujetos, incluyendo la interacción entre ambos.
Ajustarse a prototipo de diseño de ensayo clínico controlado.

ANCOVA Posibilitar el control estadístico de variables extrañas cuantitativas


(covariables) que distorsionen el estudio de relación ente VI y VD.
Se puede ajustar en cualquier otro modelo de ANOVA.

MANOVA Estudiar el efecto de los factores sobre varias variables dependientes


relacionadas de forma simultánea.

Útil para detectar efectos sobre constructos teóricos de los que se


dispone de diferentes medidas empíricas.

Tabla 6. Resumen de modelos ANOVA revisados en la unidad.

36
Mapa de contenidos

37
Recursos bibliográficos

Bibliografía básica

Balluerka, N. y Vergara A. I. (2002). Diseños de investigación experimental en psicología.


Prentice Hall.

Catena, A., Ramos. M. M. y Trujillo, H. M. (2003). Análisis multivariado. Un manual para


investigadores. Biblioteca Nueva.

Pardo, A. y Ruiz, M. A. (2012). Análisis de datos en ciencias sociales y de la salud (vol. 3).
Editorial Síntesis.

Pardo, A. y San Martín, R. (2010). Análisis de datos en ciencias sociales y de la salud (vol. 2).
Editorial Síntesis.

Bibliografía complementaria

Elorza, H. (2008). Estadística para las ciencias sociales, del comportamiento y de la salud (3.ª
ed.). Cengage Learning.

León, O. G. y Montero, I. (2001). Cómo explicar el concepto de interacción sin estadística:


Análisis gráfico de todos los casos posibles en un diseño 2 x 2. Psicothema, 13(1), 159–165.
http://www.psicothema.com/psicothema.asp?id=428

Oliver-Rodríguez, J. C., González, J. y Rosel, J. (2009). Análisis no paramétrico de la interacción


de dos factores mediante el contraste de rangos alineados. Psicothema, 21(1), 152-158.
https://www.redalyc.org/pdf/727/72711818023.pdf

Rodríguez-Gómez, G. (1992). El análisis multivariable de la varianza (MANOVA): Claver para


su interpretación. Revista de Investigación Educativa, 19(10), 69-79.
https://digitum.um.es/digitum/handle/10201/94959

Otros recursos

Cuellar, L. (2 de marzo de 2020). MANOVA en SPSS. [Vídeo]. YouTube.


https://youtu.be/8USoG0qjiN8

Field, A. (4 de marzo de 2013). MANOVA (Multivariate Analysis of Variance). [Vídeo]. YouTube.


https://youtu.be/m0zV_wFGA1I

Montanero, J. (2005). Manual abreviado de estadística multivariante. Departamento de


Matemáticas de la Universidad de Extremadura.
http://matematicas.unex.es/~jmf/Archivos/Manual%20de%20Estad%C3%ADstica%20Multiv
ariante.pdf

38
Ramos-Álvarez, M. M. (2005). Manual de bases conceptuales del MANOVA y MANCOVA.
Universidad de Jaén.
http://www4.ujaen.es/~mramos/Cursos/CADIPI/REMEDI_10_MANOVA.pdf

Serra-Añó, P. (14 de junio de 2014). Introducción II - Anova Factorial Entre Sujetos. [Vídeo].
YouTube. https://youtu.be/TFmZ9G5DycU

39

También podría gustarte