Está en la página 1de 90

CAPITULO 6

ANOVA DE UN FACTOR COMPLETAMENTE ALEATORIZADO


ESQUEMA del tema
• Resumen del tema

• Introducción al análisis de varianza.


• Tipos de ANOVAS
• Lógica del ANOVA
• ANOVA de un factor completamente aleatorizado
• Comparaciones planeadas
• Comparaciones post hoc
Capítulo 6 del vol. II de Pardo. No entra la prueba de Scheffé (pág. 222-224) ni el apéndice 6
(234-242).
ESQUEMA del tema
• Ejercicios a resolver del capítulo 6:
Ejercicio 6.1 excepto el apartado c.
Ejercicio 6.2 excepto el apartado c.
Ejercicio 6.3, 6.4, 6.5, 6.8, 6.9, 6.10, 6.11.
El ejercicio 6.12 siendo la alternativa e: Al menos una rechazada, vale 1 – (1 – α)k
Ejercicio 6.13, 6.14, 6.16, 6.17 y 6.18.
Modelos ANOVA

El ANOVA es una generalización de pruebas estadísticas ya vistas como la T de Student para


muestras independientes (compara las medias poblacionales de dos grupos) o la prueba
T para muestras relacionadas (compara las medias poblacionales de dos variables).

Los modelos ANOVA son un conjunto amplio de técnicas estadísticas basadas en un


modelo matemático conocido como el modelo lineal.

En los ANOVA distinguimos lo que es la variable dependiente (VD) que es una variable
cuantitativa y el/los factor/es . Un factor es una variable categórica (nominal u ordinal).
Modelos ANOVA

Los modelos ANOVA se pueden clasificar atendiendo a tres criterios:


(1) Número de factores. Un factor es sinónimo de variable
independiente. El factor se refiere a la variable categórica que
estudiamos. Dependiendo del número de factores tenemos modelos
ANOVA de un factor, ANOVA de dos factores, etc.
• Por ejemplo, si estudiamos cómo queda afectada la depresión (VD) antes de un
tratamiento, tras cuatro semanas, tras ocho semanas y tras doce semanas del
tratamiento, tendremos un factor que es el tiempo con cuatro niveles.
• Por ejemplo, si examinamos cómo queda afectado el rendimiento en
matemáticas (VD) en función de tres métodos de enseñanza distintos
(convencional, participativo y competitivo), tendremos un factor (variable
nominal que es el método de enseñanza) con tres niveles (convencional,
participativo y competitivo). Si añadimos que queremos estudiar, además, el
rendimiento de matemáticas en centros PRIVADOS y PÚBLICOS tendremos un
segundo factor, el tipo de centro… Tendremos por tanto un ANOVA de dos
factores.
Modelos ANOVA

Los modelos ANOVA se pueden clasificar atendiendo a tres criterios:


(2) Tipo de asignación de los sujetos a los niveles del factor.

Los diseños de grupos aleatorios son aquellos donde los sujetos se


asignan aleatoriamente a los niveles del factor.
Ejemplo: VD = horas de sueño; Factor = cantidad de fármaco con tres
niveles: 0 mg, 250 mg y 500 mg.
O si los niveles del factor son dados (hombre – mujer) los sujetos se han
escogido aleatoriamente de su población.

Son los modelos ANOVA completamente aleatorizados y los sujetos


forman muestras independientes, dado que se incluyen únicamente en
uno de los niveles del factor y no hay ningún tipo de bloqueo.
Modelos ANOVA

Los modelos ANOVA se pueden clasificar atendiendo a tres criterios:


(2) Tipo de asignación de los sujetos a los niveles del factor.

Los diseños de bloques aleatorios son aquellos donde se controlan


posibles variables extrañas que podrían afectar a la VD.

• Ejemplo: VD = rendimiento escolar. Factor = motivación extrínseca con tres


niveles (bajo, medio y alto). Controlamos por inteligencia. Buscamos sujetos
con inteligencia alta, media y baja, de forma que asignamos aleatoriamente a
los sujetos de inteligencia alta a los tres niveles de motivación, lo mismo
hacemos con los sujetos de inteligencia media y lo mismo con los de
inteligencia baja. Con ello conseguimos que en los tres niveles del factor los
sujetos estén igualados en inteligencia.
Modelos ANOVA

Los modelos ANOVA se pueden clasificar atendiendo a tres criterios:


(2) Tipo de asignación de los sujetos a los niveles del factor.

Los diseños de medidas repetidas son un ejemplo extremo de bloqueo,


ya que los sujetos pasan por todos los niveles del factor.

• Por ejemplo si medimos el recuerdo de palabras (VD) en función de la valencia


emocional de las palabras (positiva, neutra y negativa), en lugar de escoger a
tres grupos distintos de sujetos e igualarlos en inteligencia, podemos utilizar a
los mismos sujetos en cada una de las condiciones del factor.

Estos son los modelos ANOVA de medidas repetidas donde los sujetos
son los mismos o están emparejados por alguna variable extraña.
Modelos ANOVA

Los modelos ANOVA se pueden clasificar atendiendo a tres criterios:


(3) Forma de establecer los niveles del factor

Factores de efectos fijos: son aquellos que quedan establecidos por el


investigador porque tiene un interés en esos niveles concretos.

Factores de efectos aleatorios: los niveles del factor son una muestra
aleatoria de entre todos los posibles niveles que el factor puede
tener.

Nosotros estudiaremos únicamente los ANOVA de efectos fijos.


Modelos ANOVA

Con estos criterios los ANOVA quedan normalmente descritos con


alguna abreviatura. Por ejemplo, los ANOVA de este tema son los de
un factor completamente aleatorizado. Suele representarse como el
modelo ANOVA A-CA. Donde la letra A indica que solamente hay un
factor y CA que es completamente aleatorizado (los sujetos en cada
nivel del factor son independientes).

Un ANOVA AB-CA significa que es un modelo ANOVA de dos factores


(AB) completamente aleatorizado. Por ejemplo, cuando queremos
valorar el rendimiento académico (VD) según el factor A método de
enseñanza (convencional, competitivo y participativo) y según el
factor B tipo de centro (privado o público).
Modelos ANOVA

Un ANOVA A-MR sería un ANOVA de un factor (A) de medidas


repetidas (MR). Un ejemplo sería cuando estudiamos el recuerdo
como número de palabras memorizadas (VD) en función del factor A,
la valencia emocional de las palabras (palabras emocionalmente
positivas, emocionalmente neutras y emocionalmente negativas).
Los mismos sujetos memorizan palabras de los tres tipos, así que se
trata de los mismos sujetos y por lo tanto un factor de medidas
repetidas.

Si añadiésemos otro factor de medidas repetidas como el tiempo


trascurrido desde la tarea de recuerdo (1 hora, 1 día y 1 semana)
tendríamos otro factor más que llamamos tiempo. El diseño sería un
ANOVA AB-MR (en este caso dos factores de medidas repetidas).
Ejercicio
Queremos estudiar cómo queda afectada la rapidez perceptiva (midiendo
tiempos de reacción ante una tarea de ordenador) dependiendo de tres
niveles de alcohol en sangre. Para ello seleccionamos una muestra
aleatoria de 27 estudiantes y a nueve de ellos al azar los asignamos a la
condición 1- Sin alcohol, a nueve de ellos los asignamos a la condición 0,05
g/dl de alcohol y a otros nueve a la condición 0,12 g/dl de alcohol.

¿Cuál es la VD de este ANOVA y cuál es el factor? ________________________


____________________________________________________________

¿Es un ANOVA completamente aleatorizado o de medidas repetidas?

¿Podría haberse planeado este ANOVA para que fuese de medidas repetidas?
Ejercicio
En un estudio publicitario queremos averiguar la valoración que los sujetos
hacen en una escala de 0 a 10 sobre cuatro modelos de coches diferentes
(valorar la estética del vehículo). Para ello seleccionamos al azar a 20
sujetos y les presentamos las fotografías de los cuatro modelos de coches.

¿Cuál es la VD de este ANOVA y cuál es el factor? ________________________


____________________________________________________________

¿Es un ANOVA completamente aleatorizado o de medidas repetidas?

¿Podría haberse planeado este ANOVA para que fuese completamente


aleatorizado?
Lógica del análisis de varianza

Veamos el ejemplo del rendimiento en función del método de


enseñanza. Se trata de un ANOVA A-CA. La VD es el rendimiento en
matemáticas (medida con una prueba estandarizada PISA). Los tres
métodos de enseñanza constituyen el factor CA (son sujetos distintos
los que van a cada método).
Lógica del análisis de varianza
MÉTODO DE ENSEÑANZA (FACTOR)
Convencional Competitivo Participativo
5.0 5.0 5.0
5.0 5.0 5.0
5.0 5.0 5.0
5.0 5.0 5.0
5.0 5.0 5.0

Y1  5.0 Y2  5.0 Y3  5.0 Y  5.0

Situación en la que no hay variabilidad ni ENTRE métodos ni INTRA métodos Yij  Y


Lógica del análisis de varianza
MÉTODO DE ENSEÑANZA (FACTOR)
Convencional Competitivo Participativo
5,0 3,0 6,0
5,0 3,0 6,0
5,0 3,0 6,0
5,0 3,0 6,0
5,0 3,0 6,0

Y1  5,0 Y2  3,0 Y3  6,0 Y  4,67

En esta muestra hay efecto del método de enseñanza. Tenemos variabilidad ENTRE métodos, pero no variabilidad
INTRA métodos, donde α es el efecto del método de enseñanza, es decir, lo que se desvía de la media total.

Yij  Y   j  j  Yj  Y
Lógica del análisis de varianza
MÉTODO DE ENSEÑANZA (FACTOR)
Convencional Competitivo Participativo
5,2 2,0 6,6
4,4 3,0 5,3
5,0 4,0 6,7
5,6 3,5 5,4
4,8 2,5 6,0

Y1  5,0 Y2  3,0 Y3  6,0 Y  4,67

En la muestra, hay efecto del método de enseñanza y del error. Tenemos variabilidad ENTRE métodos y también variabilidad
INTRA métodos (a esto lo llamamos error en el análisis de varianza, a esta fuente de variabilidad intramétodo).
Lógica del análisis de varianza

¿Qué hace el ANOVA? Compara la variabilidad intergrupos con


respecto a la variabilidad intragrupos o variabilidad error.

MÉTODO DE ENSEÑANZA (FACTOR)


Convencional Competitivo Participativo
Variabilidad intragrupos
5,2 2,0 6,6
4,4 3,0 5,3
5,0 4,0 6,7
5,6 3,5 5,4
4,8 2,5 6,0

Y1  5,0 Y2  3,0 Y3  6,0

Variabilidad intergrupos
Lógica del análisis de varianza

A la variabilidad intragrupos se la conoce como MCE (Media Cuadrática


Error). Tenemos un total de N = 15 sujetos y n = 5 sujetos por grupo
MÉTODO DE ENSEÑANZA (FACTOR)
Convencional Competitivo Participativo
5,2 2,0 6,6
4,4 3,0 5,3
5,0 4,0 6,7
5,6 3,5 5,4
4,8 2,5 6,0

Y1  5,0 Y2  3,0 Y3  6,0


S12  0,2 S 22  0,625 S32  0,425

MC E  S 2

 S 2
j

(0,2  0,625  0,425)
 0,417
j
J 3
Donde J es el número de grupos
Lógica del análisis de varianza

A la variablidad intergrupos se la conoce como MCI (Media Cuadrática


Intergupos)
MÉTODO DE ENSEÑANZA (FACTOR)
Convencional Competitivo Participativo
5,2 2,0 6,6
4,4 3,0 5,3
5,0 4,0 6,7
5,6 3,5 5,4
4,8 2,5 6,0

Y1  5,0 Y2  3,0 Y3  6,0 Y  4,67


S12  0,2 S 22  0,625 S32  0,425

n (Y j  Y ) 2 5[(5  4,67) 2  (3  4,67) 2  (6  4,67) 2 ]


MC I  MC A    11,67
J 1 3 1
Donde n es el número de sujetos de cada grupo y J el número de grupos
Lógica del análisis de varianza

Ambos estimadores, MCI y MCE son estimadores de la varianza


poblacional, σ2 , cuando las medias poblacionales entre los distintos
métodos de enseñanza son iguales. Por lo tanto, el cociente entre
MCI/MCE aproximadamente igual a 1 significará que las medias
poblacionales son iguales. Sin embargo, cuanto más por encima de 1
está el cociente entre MCI/MCE más seguros estaremos de que las
medias poblacionales son diferentes.
MC A
F
En estadístico del contraste en el ANOVA es MC
que
E compara
precisamente la variabilidad intergrupos con la variabilidad
intragrupos o error. Este estadístico tiene distribución de
probabilidad conocida, la distribución F de Fischer-Snedecor.
ANOVA de un factor completamente aleatorizado (ANOVA A-CA)

Es el ANOVA más sencillo. Tenemos un factor (p.ej., método de


enseñanza) con más de dos niveles que ya sabemos que es una
variable categórica.

Tenemos, además, una variable dependiente que ya sabemos que es


una variable cuantitativa (p.ej., el rendimiento en matemáticas con
una prueba estandarizada).

Por lo tanto, el ANOVA A-CA es una generalización de la prueba T para


muestras independientes que tenía una variable categórica con dos
niveles y una variable cuantitativa.
ANOVA de un factor completamente aleatorizado (ANOVA A-CA)

Lo que pretende el ANOVA A-CA es comparar J medias poblacionales y


permitirnos decidir si algunas medias difieren. En lugar de la T de
Student para muestras independientes que compara dos medias
poblacionales, el ANOVA A-CA compara J medias poblacionales.
El ANOVA A-CA permite no tener que restringirnos a dos grupos.
ANOVA de un factor completamente aleatorizado (ANOVA A-
CA)

1. Hipótesis
H 0 :  M _ Convencional   M _ Competitivo   M _ Participativo
H1 :  j   j '

2. Supuestos: J muestras aleatoriamente seleccionadas. Las J


poblaciones son normales y las J varianzas poblacionales son iguales.
3. Estadístico del contraste: F  MC A
MC E
MC A 11,667
En el ejemplo teníamos que F   28
MC E 0,417

4. Distribución muestral: F se distribuye según F con J – 1 y N – J grados


de libertad. En el ejemplo, F se distribuye según F con 3 – 1 = 2 y N –
J = 15 – 3 = 12 grados de libertad
ANOVA de un factor completamente aleatorizado

5. Zona crítica: F ≥ FJ – 1, N – J, 1 – α

FJ – 1, N – J, 1 – α

En el ejemplo, tomando α = 0,05, si vamos a la distribución F con 2 y 12 grados de libertad


vemos que el percentil 95 es 3,89. Como nuestro estadístico F = 28 > 3,89 cae en la zona
de rechazo.
ANOVA de un factor completamente aleatorizado

6. Decisión: Se rechaza H0 si el estadístico F cae en la zona crítica; en


caso contrario se mantiene. El rechazo de H0 implica que al menos
dos medias difieren (no todas las medias son iguales). Mantener H0
ya sabemos que NO implica afirmar que las medias poblacionales
son iguales, sino que no hay evidencias para afirmar que al menos
dos medias difieren o que el resultado de los datos es compatible
con la hipótesis de que las medias son iguales.

7. Nivel crítico (valor p): p = P(F ≥ Fh), siendo Fh el valor concreto que
toma nuestro estadístico. En nuestro caso, la probabilidad de
obtener un valor mayor o igual a 28 en la distribución F con 2 y 12
grados de libertad es 0,00003 (sacado con el SPSS).
Ejercicio
Ejercicio. Se quiere estudiar el rendimiento en una prueba de lógica (medida
de 0 a 20 puntos) dependiendo del nivel de ansiedad del sujeto (se
inducen tres niveles de ansiedad: bajo, medio y alto). Los resultados son
los de la tabla. El objetivo es averiguar si los grupos de ansiedad difieren
en rendimiento, es decir, si el nivel de ansiedad está relacionado con el
rendimiento (α = 0,05).

Nivel de 1 2 3 4 5 6 7 8 9 10
ansiedad T Yj S 2j
YBAJO 4 11 7 10 4 9 11 8 14 12 90 9 10,89
YMEDIO 19 14 13 16 15 18 12 7 10 16 140 14 13,33
YALTO 3 11 5 10 14 5 7 9 4 2 70 7 15,11
Promedios 10 13,11
Ejercicio
El factor es nivel de ansiedad con tres niveles: bajo, medio y alto. La variable
dependiente (la variable cuantitativa) es el rendimiento en la prueba de
lógica. El diseño debe analizarse con un modelo ANOVA de un factor CA
(completamente aleatorizado) puesto que los sujetos son distintos.

1. Hipótesis:
H 0 :  Bajo   Medio   Alto
H1 :  j   j '

2. Supuestos: Tres muestras aleatorias de la población que se distribuyen


normalmente (es decir, el rendimiento tiene distribución normal en las tres
poblaciones) y las varianzas de rendimiento son iguales.
MC A
3. Estadístico del contraste: F
MC E
Ejercicio
Calculamos el estadístico.
n j  (Y j  Y ) 2
10[(9  10) 2  (14  10) 2  (7  10) 2 ]
MC A    130
J 1 3 1
10,89  13,33  15,11
MC E  S j 
2
 13,11
3
MC A 130
F   9,92
MC E 13,11
4. Distribución muestral: F se distribuye en el modelo de probabilidad F con
grados de libertad del numerador J – 1 = 2, y grados de libertad del
denominador N – J = 27.
Ejercicio
5. Zona crítica: Tenemos que encontrar el punto crítico o percentil 95 (ya que α
= 0,05) de la distribución F con 2 y 27 grados de libertad. Valores de
nuestro estadístico F mayores o igual que ese punto crítico nos llevarán al
rechazo de H0 y valores menores al mantener H0 .

F2, 27; 0,95 = 3,35

Luego la zona crítica es F ≥ 3,35


Ejercicio
6. Decisión: como el valor de nuestro estadístico F = 9,92 > 3,35 rechazamos H0
y concluimos que al menos dos medias poblacionales de rendimiento
difieren entre los niveles de ansiedad. Es decir, hay relación entre el nivel
de ansiedad y el rendimiento.

7. Nivel crítico (valor p): es la P(F ≥ 9,92), es decir, la probabilidad que queda a
la derecha de nuestro estadístico del contraste que es < 0,01.
Ejercicio
Ejercicio: Un equipo de psicólogos de la personalidad quiere averiguar si el
rasgo búsqueda de sensaciones nuevas difiere entre cuatro profesiones
distintas: políticos, periodistas, cirujanos e inversores. Para ello selecciona
una muestra aleatoria de cada profesión y les administra una prueba
estandarizada de búsqueda de sensaciones nuevas.

¿Cuál es el factor y cuál la VD?, ¿Cuántos niveles tiene el factor?

¿Es un ANOVA Completamente Aleatorizado o es un ANOVA de Medidas


Repetidas?

¿Cuál es la hipótesis nula que se pone a prueba en este diseño?

Supongamos que obtenemos un estadístico F = 2,78 tal que P(F ≥ 2,78) = 0,35.
Con α = 0,05, ¿qué decisión tomamos sobre H0?, ¿Cuál es la conclusión del
contraste?
ANOVA de un factor completamente aleatorizado

TABLA DEL ANOVA

Fuente de variación SC gl MC F p

Intergrupos (A) SCA = MCA(J – 1) J–1 SCA / (J – 1) MCA/MCE P(F≥Fh)

Intragrupos o error SCE = MCE(N – J) SCE / (N – J)


N–J - -
(E)

Total SCT = SCA + SCE N–1 - - -


Ejercicio
Ejercicio: A continuación se ofrece la tabla resumen de un ANOVA A-CA donde
se han utilizado J = 3 grupos. Completa la tabla.

Fuente de variación SC gl MC F p

Intergrupos (A) ( ) ( ) 70 7 0,0013

Intragrupos o error
( ) ( ) ( ) - -
(E)

Total ( ) 29 - - -

¿Puede concluirse que la VI (el factor) y la VD están relacionadas (α = 0,05)?


¿Cuántos sujetos han participado en el estudio?
ANOVA de un factor completamente aleatorizado

Medidas de tamaño del efecto:


Al igual que en otras técnicas estadísticas, una F significativa (que lleva
al rechazo de H0) no va acompañada necesariamente de un
resultado relevante. Por lo tanto, necesitamos de otras medidas que
nos cuantifiquen la relevancia del resultado o, dicho de otra
manera, el tamaño del efecto encontrado.

De entre las varias propuestas la mejor es omega-cuadrado (ω2):

( J  1)( MC A  MC E )
ˆ 2 
( J  1) MC A  ( N  J  1) MC E
Valores de ω2 de 0,01, 0,06 y 0,14 se consideran tamaños del efecto
bajos, medio y altos respectivamente.
ANOVA de un factor completamente aleatorizado

Medidas de tamaño del efecto:


Interpretación de las medidas del tamaño del efecto en el ANOVA:

Variabilidad
total
= Variabilidad
entre grupos
+ Variabilidad
intragrupos

Variabilidad
Variabilidad
total
= entre grupos + Variabilidad
intragrupos
ANOVA de un factor completamente aleatorizado

Medidas de tamaño del efecto:


Se puede interpretar como el grado de certidumbre que ganamos sobre
la VD al tener información de la VI (o factor). También se puede
entender como la proporción de reducción del error al tratar de
explicar la VD a partir del factor.
Ejercicio
Calculamos el tamaño del efecto para el ejercicio resuelto de tres niveles de
ansiedad inducido (bajo, medio y alto) y su relación con el rendimiento
(VD):

( J  1)( MC A  MC E ) (3  1)(130  13,11)


ˆ 2    0,37
( J  1) MC A  ( N  J  1) MC E (3  1)130  (30  3  1)13,11

Luego, cuando tenemos información del nivel de ansiedad inducido mejoramos


nuestro conocimiento del rendimiento en un 37% (o lo que es lo mismo, el
error sobre nuestro conocimiento de la VD (rendimiento) se reduce un 37%
si conocemos el nivel de ansiedad inducido).
Comparaciones múltiples entre medias

Cuando rechazamos H0 en un ANOVA A-CA, lo que podemos decir es


que el factor o variable independiente está relacionada con la VD. O
lo que es lo mismo, que no todas las medias poblacionales son
iguales.

Ahora bien, sabemos que el ANOVA A-CA se utiliza cuando el factor A


tiene más de dos grupos (J ≥ 3). Por lo tanto, rechazar H0 NO nos
dice qué medias poblacionales difiere de qué otras medias. Lo único
que sabemos es que al menos dos medias difieren.

Lo siguiente que se suele hacer en un ANOVA es precisamente


comparaciones múltiples entre medias y son de dos tipos: (1)
Comparaciones planeadas o a priori y (2) Comparaciones a
posteriori o post hoc.
Comparaciones múltiples entre medias
Algunas reglas básicas en las comparaciones múltiples

Supongamos que tenemos un factor A con J = 5 grupos.


µ1 µ2 µ3 µ4 µ5
Las comparaciones que hacemos nosotros son lineales en el sentido de
que son sumas ponderadas con coeficientes no todos ellos nulos,
pero cuya suma es cero. Por ejemplo, si quiero comparar el grupo 1
frente al grupo 2 tendré que hacer:
ψ1 = (+1)µ1+(-1) µ2+(0) µ3+(0) µ4+(0) µ5
Comparaciones múltiples entre medias
Algunas reglas básicas en las comparaciones múltiples
Si ahora quiero comparar dos grupos de medias, por ejemplo, la de los
grupos 1 y 2, frente a los grupos 3, 4 y 5, la asignación de coeficientes
será:
ψ2 = (+3)µ1+(+3) µ2+(-2) µ3+(-2) µ4+(-2) µ5

Por lo tanto, hay que fijarse en que los coeficientes suman 0.


El truco cuando comparamos un grupo de medias con otro grupo de
medias donde en un grupo hay más medias que en otro, consiste en
asignar como coeficientes de un grupo el número de medias del otro
grupo y al otro grupo lo mismo (el número de medias del otro grupo)
pero en sentido negativo.
Comparaciones múltiples entre medias
Algunas reglas básicas en las comparaciones múltiples
Asigna coeficientes si queremos comparar la media del grupo 1 frente a
la media formada por los grupos 4 y 5.
ψ3 = ( )µ1+( ) µ2+( ) µ3+( ) µ4+( ) µ5

¿Y si queremos comparar la media de los grupos 1 y 2 frente a los


grupos 3 y 4?
ψ4 = ( )µ1+( ) µ2+( ) µ3+( ) µ4+( ) µ5

¡Lo que comparamos por lo tanto son dos cosas! Un grupo de medias
con otro grupo de medias, aunque estén involucradas muchas
medias.
Comparaciones múltiples entre medias
Algunas reglas básicas en las comparaciones múltiples
¿Son dos comparaciones ortogonales o independientes?

Para saber si dos comparaciones son ortogonales o independientes hay


que probar si:  c j1c j 2  0
j
Veámoslo con un ejemplo con J = 3 grupos:
 1 : (1) 1  (1)  2  (0) 3
 2 : (1) 1  (0)  2  (1) 3

c
j
c  (1)(1)  (1)(0)  (0)( 1)  1
j1 j 2

Luego NO es una comparación ortogonal


Comparaciones múltiples entre medias
Algunas reglas básicas en las comparaciones múltiples
Otro ejemplo con J = 3 grupos:
 3 : (1) 1  (0)  2  (1) 3
 4 : (1) 1  (2)  2  (1) 3

c
j
c  (1)(1)  (2)( 0)  (1)(1)  0
j3 j 4

Sí son dos comparaciones ortogonales. Esto significa que la


comparación ψ3 no es redundante, o nada me dice sobre ψ4
Con J grupos solo tenemos un total de J – 1 comparaciones ortogonales.
Ejercicios propuestos
6.14. Al analizar los datos de un diseño con tres grupos se plantean las
siguientes hipótesis:
H 0 (1) : 1   2  2 3  0
H 0 ( 2 ) : 1  3  0
¿Qué grupos queremos comparar con el primer contraste y qué grupos con
el segundo?

¿Son independientes ambas comparaciones?, ¿por qué?


Comparaciones múltiples entre medias
Tasa de error en las comparaciones múltiples

Cuando comparamos dos medias con α = 0,05 estamos diciendo que la


probabilidad de cometer un error de tipo I (es decir, rechazar una H0
que es verdadera) vale 0,05.
Pero pensemos el siguiente ejemplo. Hacemos un ANOVA A-CA con J = 4
grupos. Rechazamos H0 y por lo tanto sabemos que las cuatro
medias poblacionales no son iguales.
Ahora probamos a comparar todas las medias por pares para
determinar entre cuáles hay diferencias. ¿Sigo teniendo la misma
probabilidad de cometer un error de tipo I?
El número de comparaciones por pares es J(J – 1)/2, en este caso, 6.
Comparaciones múltiples entre medias
Tasa de error en las comparaciones múltiples

Más concretamente, la cuestión ahora es ¿cuál es la probabilidad de


equivocarme rechazando al menos una H0 que es verdadera?

Suponiendo todas las medias iguales, la probabilidad de acertar en las


seis decisiones que tengo que tomar (6 comparaciones por pares)
será: (1 – α)k = (1 – 0,05)6 = 0,74.
Luego la probabilidad de equivocarme al menos una vez es 1 – 0,74 =
0,26.
La conclusión de esto es que se dispara la tasa de error tipo I cuantas
más comparaciones efectuemos.
Comparaciones múltiples entre medias
Tasa de error en las comparaciones múltiples

Tasa de error (cuarta columna) por familia de comparaciones αF


Probabilidad de
equivocarse al menos
Probabilidad de acertar todas una vez al tomar una
nº comparaciones las decisiones | H0 verdadera decisión
Grupos (J) K = (1 – α)k αF = 1 – (1 – α)k
2 1 0,95 0,05
3 3 0,86 0,14
4 6 0,74 0,26
5 10 0,60 0,40
6 15 0,46 0,54
7 21 0,34 0,66
8 28 0,24 0,76
9 36 0,16 0,84
10 45 0,10 0,90
Comparaciones múltiples entre medias
Tasa de error en las comparaciones múltiples

Todo esto pone de manifiesto que αF > α

Por lo tanto, los procedimientos que vamos a ver tratan de controlar la


tasa de error de la familia de comparaciones que vayamos a llevar a
cabo.
Comparaciones planeadas o a priori
Hay dos estrategias: (1) a priori o planeado y (2) a posteriori

(1) A priori o planeadas: Las comparaciones planeadas son


independientes del ANOVA y no necesitan ir precedidas de una F.
Son dos, tres o cuatro comparaciones en las que el investigador
tiene un interés debido a la relevancia teórica de tales
comparaciones.
(2) A posteriori o post hoc: son habitualmente todas las comparaciones
por pares para detectar qué medias difieren de qué otras. Son de
tipo exploratorio.
Comparaciones planeadas o a priori
Prueba de Dunn-Bonferroni

La prueba de Dunn-Bonferroni nos permite llevar a cabo comparaciones


planeadas donde asignamos los coeficientes como antes hemos
visto.
La idea es la siguiente: como aumentando el número de comparaciones
la tasa de error αF es mayor que αC que utilizamos (donde la C se
refiere al α que tenemos por comparación), lo que propone este
procedimiento es hacer que αF sea αC/k.
Por ejemplo, si utilizamos un αC = 0,05 y vamos a efectuar tres
comparaciones (k = 3), entonces el αF que tomaremos será αC/k 
0,05/3 = 0,017. Es decir, para evitar que se dispare la tasa de error
tomamos un nivel de significación más conservador.
Comparaciones planeadas o a priori
Prueba de Dunn-Bonferroni

En realidad no tenemos que hacer el cálculo de αF según el número de


comparaciones. Para eso tenemos unas tablas donde podremos
consultar el punto crítico (la tabla J).
La prueba de Dunn-Bonferroni se aplica a las comparaciones del tipo:

H 0 : h  (c1 ) 1  (c2 )  2  ...  (c j )  j  0


H1 : h  (c1 ) 1  (c2 )  2  ...  (c j )  j  0
El estadístico del contraste es:
c1Y1  c2Y2  ...  c jY j
TDB 
 c12 c22 c 2j 
MC E   ...  
n n n 
 1 2 j 
Comparaciones planeadas o a priori
Prueba de Dunn-Bonferroni

La distribución de tDB es la Tabla J del libro, donde debemos poner los


grados de libertad error (los de MCE) y el número de comparaciones
k para poder buscar el punto crítico a partir del cual rechazamos H0.

Tse
DBdistribuye
t k , gl _ error
Ejercicio
Ejercicio. Dunn-Bonferroni. Queremos ahora hacer dos comparaciones con
αF = 0,05: (1) El rendimiento del grupo de ansiedad medio frente a los
otros dos tomados juntos y (2) el grupo de menor ansiedad (grupo 1)
con el de mayor ansiedad (grupo 3): (recordemos que MCE = 13,11)
Nivel de
ansiedad
Yj  1  (?)1  (?) 2  (?)3
YBAJO 9  2  (?)1  (?) 2  (?)3
YMEDIO 14
YALTO 7
Ejercicio
Ejercicio. Dunn-Bonferroni. Queremos ahora hacer dos comparaciones con
αF = 0,05: (1) El rendimiento del grupo de ansiedad medio frente a los
otros dos tomados juntos y (2) el grupo de menor ansiedad (grupo 1)
con el de mayor ansiedad (grupo 3): (recordemos que MCE = 13,11)
Nivel de
ansiedad
Yj  1  (1) 1  (2)  2  (1) 3
YBAJO 9  2  (1) 1  (0)  2  (1) 3
YMEDIO 14
YALTO 7

H 0 (1) : 1  (1) 1  (2)  2  (1) 3  0 H1(1) : 1  (1) 1  (2)  2  (1) 3  0

H 0 ( 2 ) : 2  (1) 1  (0)  2  (1) 3  0 H1( 2 ) : 2  (1) 1  (0)  2  (1) 3  0

Las hipótesis de las dos comparaciones serán:


Ejercicio
Sacamos los dos estadísticos de contraste (uno para cada hipótesis nula que
ponemos a prueba):
c1Y1  c2Y2  c3Y3 (1)9  (2)14  (1)7 12
TDB (1)     4,29
 c12 c22 c32   (1) 2 ( 2) 2 (1) 2  7,87
MC E     13,11   
 n1 n2 n3   10 10 10 

c1Y1  c2Y2  c3Y3 (1)9  (0)14  (1)7 2


TDB ( 2)     1,23
 c12 c22 c32   (1) 2 (0) 2 (1) 2  2,62
MC E     13,11   
 n1 n2 n3   10 10 10 
Ejercicio
Distribución muestral: vamos a la Tabla J. Hay dos posibilidades: que estemos
manejando αF = 0,05 o αF = 0,01. En el ejemplo utilizamos αF = 0,05.
¿Cómo situarnos en la tabla? Es fácil porque nos pide dos cosas. Por un
lado tenemos que buscar los grados de libertad de MCE en la tabla (N – J
= 30 – 3 = 27). Por otro lado nos pide que digamos cuántas
comparaciones planeadas k estamos haciendo. En nuestro ejemplo k =
2.

Lo que nos da esta tabla es el punto crítico (percentil 95) a partir del cual
rechazamos o mantenemos H0.

Zona crítica:
En este caso tk comparaciones; gl error; 1 – α será t2; 27 ; 0,95 = 2,37
Por lo tanto, la zona de rechazo queda delimitada por 2,37.
La zona crítica es lo que queda a la derecha de 2,37, es decir,
TDB ≥ t27; 2 ; 0,95 = 2,37
Ejercicio
Decisión: El valor TDB(1) = 4,29 es mayor que el punto crítico 2,37. El valor TDB(2)
= 1,23 es menor que el punto crítico 2,37. Por lo tanto solo podemos
rechazar H0(1) que plantea medias poblacionales iguales para el grupo de
ansiedad medio frente a los grupos de ansiedad bajo y alto (el grupo 1 y
el grupo 3). Por lo tanto, las medias difieren. Concretamente,
atendiendo a los resultados muestrales lo que tenemos es que el grupo
de ansiedad medio alcanza una media poblacional en rendimiento
mayor que los grupos con ansiedad baja y alta.

Respecto a H0(2) no podemos afirmar que la media de rendimiento del grupo


de ansiedad baja difiera de la media de rendimiento del grupo de
ansiedad alta.
Comparaciones planeadas o a priori
Comparaciones de tendencia

Las comparaciones de tendencia nos permiten ver cómo es el tipo de


relación existente entre el factor y la VD.

Cuando rechazamos la H0 del ANOVA lo único que sabemos es que NO


todas las medias poblacionales son iguales. Sin embargo, eso no nos
dice cómo es la relación entre la VI o factor y la VD.
Comparaciones planeadas o a priori
Comparaciones de tendencia

Tipos de relaciones: Con J = 2 grupos solamente hay un tipo de relación,


la lineal.

Relaciones lineales
Comparaciones planeadas o a priori
Comparaciones de tendencia

Tipos de relaciones: Con J = 3 grupos hay dos tipos de relación posible,


la lineal y la cuadrática.

Relaciones lineales

Relaciones cuadráticas
Comparaciones planeadas o a priori
Comparaciones de tendencia
Tipos de relaciones: Con J = 4 grupos hay tres tipos de relación posible,
la lineal, la cuadrática y la cúbica. Y etc.

Relaciones lineales

Relaciones cuadráticas

Relaciones cúbicas
Comparaciones planeadas o a priori
Comparaciones de tendencia

Por lo tanto, el número de tendencias distintas es igual a J – 1.

Solo tiene sentido valorar el tipo de relación entre el factor y la VD


cuando el factor está medido a nivel ordinal (cuando hay un orden
entre las categorías del factor). Si el factor es nominal no tendrá
sentido evaluar la tendencia.
Ejercicio
Tenemos un factor que es la dosis de fármaco con cuatro niveles (0 mg, 100
mg, 200 mg, y 300 mg). La variable dependiente es la agresividad
medida como nivel de adrenalina en sangre.

¿Cuántas posibles relaciones entre el factor y la VD se pueden estudiar?

Tenemos un factor que es la región española con cinco niveles (norte, sur,
este, oeste y centro). La VD es el nivel de colesterol.

¿Cuántas posibles relaciones entre el factor y la VD se pueden estudiar?


Comparaciones planeadas o a priori
Comparaciones de tendencia

¿Y cómo podemos en la práctica efectuar comparaciones de tendencia?


Por ejemplo, con tres grupos hay dos posibles tendencias:
 Lineal  (c1 ) 1  (c2 )  2  (c3 ) 3
 Cuadrática  (c1 ) 1  (c2 )  2  (c3 ) 3

Hay que asignar unos coeficientes que vienen en la tabla H del apéndice
del libro.
 Lineal  (1) 1  (0)  2  (1) 3
 Cuadrática  (1) 1  (2)  2  (1) 3
Comparaciones planeadas o a priori
Comparaciones de tendencia

A partir de aquí se aplicar la prueba de Dunn-Bonferroni tal y como se


ha visto.
Ejercicio
Ejercicio. Comparaciones de tendencia. Queremos ahora hacer las
comparaciones de tendencia en el ejemplo de la ansiedad (J = 3 grupos)
y el rendimiento con αF = 0,05. (recordad que MCE = 13,11)

 Lineal  (1) 1  (0)  2  (1) 3  0


Nivel de Yj
ansiedad  Cuadrática  (1) 1  (2)  2  (1) 3  0
YBAJO 9
YMEDIO 14
YALTO 7

H 0 ( Lineal) : 1  (1) 1  (0)  2  (1) 3  0 H1( Lineal ) : 1  (1) 1  (0)  2  (1) 3  0

H 0 (Cuadr) : 2  (1) 1  (2)  2  (1) 3  0


H1(Cuadr) : 2  (1) 1  (2)  2  (1) 3  0
Las hipótesis de las dos comparaciones serán:
Ejercicio
Sacamos los dos estadísticos de contraste (uno para cada hipótesis nula que
ponemos a prueba):

c1Y1  c2Y2  c3Y3 (1)9  (0)14  (1)7 2


TDB ( Lineal)     1,23
 c12 c22 c32   (1) 2 (0) 2 (1) 2  2,62
MC E     13,11   
 n1 n2 n3   10 10 10 

c1Y1  c2Y2  c3Y3 (1)9  ( 2)14  (1)7


12
TDB (Cuadr)     4,29
 c1 c2 c3 
2 2 2
 (1) ( 2) (1) 
2 2 2 7,87
MC E     13,11   
 n1 n2 n3   10 10 10 
Ejercicio
Distribución muestral: vamos a la Tabla J (α= 0,05). Por un lado tenemos que
buscar los grados de libertad de MCE en la tabla (N – J = 30 – 3 = 27). Por
otro lado nos pide que digamos cuántas comparaciones de tendencia k
estamos haciendo. En nuestro ejemplo k = 2.

Lo que nos da esta tabla es el punto crítico (percentil 95) a partir del cual
rechazamos o mantenemos H0.

Zona crítica:
En este caso tk comparaciones; gl error; 1 – α será t2; 27 ; 0,95 = 2,37
Por lo tanto, la zona de rechazo queda delimitada por 2,37.
La zona crítica es lo que queda a la derecha de 2,37, es decir,
TDB ≥ t27; 2 ; 0,95 = 2,37
Ejercicio
Decisión: El valor TDB(cuadrática) = 4,29 es mayor que el punto crítico 2,37. En
cambio, el valor TDB(Lineal) = 1,23 es menor que el punto crítico 2,37. Por lo
tanto solo podemos rechazar H0(cuadrática) que plantea que la relación
cuadrática es nula. Rechazamos esto y concluimos que hay una relación
de tipo cuadrático entre el rendimiento y la ansiedad.

Respecto a H0(Lineal) no podemos afirmar H1 que dice que hay una relación
lineal de tipo significativa (significativamente distinta de 0). No hemos
encontrado por lo tanto relación de tipo lineal.

Si visualizamos las medias muestrales comprenderemos fácilmente por qué


hemos concluido que hay una relación de tipo cuadrático en la
población:
Ejercicio

Relación entre VD = rendimiento y el factor


(Ansiedad)
16

14

12

VD = RENDIMEINTO
10

0
BAJO MEDIO ALTO
Comparaciones planeadas o a priori

TABLA DEL ANOVA con comparaciones de tendencia. Supongamos el


ejemplo de J = 4 grupos, donde podemos valorar tres tendencias.

La SCA del factor es la suma de las SCLineal + SCCuadrática + SCCúbica . Es decir, la


variabilidad intergrupos (SCA) se puede desglosar a partir de la
variabilidad de las tendencias.

Cada tendencia tiene 1 gl. La suma de los grados de libertad es igual a


los grados de libertad de la variabilidad intergrupos.

En lugar de la TDB podemos igualmente sacar una FLineal , una FCuadrática y


una FCúbica con MCLineal / MCE , MCCuadrácico / MCE y MCcúbica / MCE
respectivamente.
Ejercicio
Ejercicio TABLA DEL ANOVA con comparaciones de tendencia con J = 3
grupos. Rellenar la tabla.

Fuente de variación SC gl MC F p
Intergrupos ( ) ( ) 30 6 0,010
Lineal ( ) ( ) ( ) ( ) 0,005
Cuadrático ( ) ( ) 10 ( ) 0,100
Cúbico ( ) ( ) ( ) ( )
Intragrupos o error ( ) ( ) ( ) - -
Total ( ) 17 - - -

La relación entre la VI o factor y la VD es: ¿lineal?, ¿cuadrática?, ¿cúbica?,


¿ninguna de ellas?.
Comparaciones planeadas o a priori

Prueba de Dunnett
Esta es la última comparación planeada que vamos a ver. Se trata de un
método que controla la tasa de error cuando efectuamos J – 1

¡NO
comparaciones entre un grupo control y los grupos experimentales.

La prueba de Dunnett consiste en encontrar la Diferencia Mínima

ENTRA!
Significativa (DMS) que es el valor más pequeño a partir de la cual la
diferencia es significativa.
YControl  Y j
La expresión para encontrar la DMS de Dunnett es:

DMS Dunnett  t J , N  J ,1 F MC E (1 / ncontrol  1 / n j )


Comparaciones planeadas o a priori

Prueba de Dunnett
Tenemos que ir a la tabla K del libro para obtener el punto crítico: (1)

¡NO
primero teniendo en cuenta si αF = 0,05 o αF = 0,01 y (2) teniendo en
cuenta si el contraste es unilateral o bilateral.

ENTRA!
Ejercicio
Seguimos con el ejemplo de los tres niveles de ansiedad inducidos (bajo,
medio y alto) y la VD = rendimiento. Vamos a suponer que el grupo de
ansiedad bajo es el grupo control para explicar el funcionamiento de
Dunnett. Llevaremos a cabo dos comparaciones. La del grupo control

¡NO
con el grupo de ansiedad medio y la del grupo control con el grupo de
ansiedad alto (ambos bilaterales y tomando αF = 0,05).
 1  Control   ans _ medio

ENTRA!
 2  Control   ans _ alto

1. Hipótesis:
H 0(1) : 1  Control   ans _ medio  0 H1( 2 ) : 1  Control   ans _ medio  0
H 0 ( 2 ) : 2  Control   ans _ alto  0 H1( 2 ) : 2  Control   ans _ alto  0

2. Supuestos: Tres muestras aleatorias normales y con la misma varianza


Ejercicio
3. Estadístico del contraste: Tenemos que hallar la DMSDunnett para averiguar si
hay o no diferencias estadísticamente significativas. O sea, esta prueba,
Dunnett plantea un valor DMS a partir del cual rechazaremos la
hipótesis nula. ¿Cuál es esa DMS?

¡NO
DMS Dunnett  t J , N  J ,1 F MC E (1 / ncontrol  1 / nans _ medio )

Para calcularla tenemos que buscar en la tabla K (bilateral) la t con J = 3, con

ENTRA!
N – J = 27 y con αF = 0,05 (por lo que 1 – αF = 0,95). Como no tenemos 27
grados de libertad redondeamos a 30. Ese valor es 2,32.

Del ejercicio anterior sabemos que MCE = 13,11, nControl = 10 y nj = 10


DMS Dunnett  2,32 13,11(1 / 10  1 / 10)  3,76
| YControl  Yans _ medio | 9  14  5
Tenemos que
| YControl  Yans _ alto | 9  7  2
Ejercicio
4. Decisión:
ˆ1 | YControl  Yans _ medio | 5  DMS Dunnett  3,76

¡NO
ˆ 2 | YControl  Yans _ alto | 2  DMS Dunnett  3,76

Solamente el primer contraste supera la DMS por lo que rechazamos que la


media poblacional del grupo control sea igual a la media poblacional del

ENTRA!
grupo de ansiedad medio. Atendiendo a los resultados muestrales,
además, podemos concluir que es el grupo de ansiedad medio el que
rinde más en la población.
El segundo contraste no alcanza la DMS de modo que no hay evidencias para
afirmar que la media poblacional del grupo control difiere de la media
poblacional del grupo de ansiedad alto.
Comparaciones post hoc o a posteriori
Hemos dicho que hay dos tipos de comparaciones: las comparaciones
planeadas y las comparaciones post hoc. Dunn-Bonferroni, las
comparaciones de tendencia y Dunnet son los tres tipos de
comparaciones planeadas que hemos estudiado. Ahora nos vamos a
centrar en las otras comparaciones.

Las comparaciones post hoc son de tipo exploratorio. Al contrario que


las planeadas, que responden a expectativas e intereses concretos
del investigador (de tipo confirmatorio), las comparaciones post hoc
se suelen hacer tras rechazar la H0 del ANOVA y suelen consistir en
comparar todas las medias por pares.
Comparaciones post hoc o a posteriori
¿Por qué no emplear la técnica de Dunn-Bonferroni cuando hacemos las
comparaciones por pares? Alguien podría plantearse esa pregunta.
Al fin y al cabo Dunn-Bonferroni lo que hace es controlar la tasa de
error por el número k de comparaciones: αF = αC/k.

La respuesta es que es una prueba muy conservadora. Conservadora en


estadística significa que es muy difícil rechazar una H0. La prueba de
Dunn-Bonferroni, cuando k es grande, hace que αF sea
irrazonablemente pequeño (por ejemplo, con J = 10 grupos, el
número de comparaciones por pares es J (J – 1)/2 = k = 45
comparaciones, luego αF = 0,05/45 = 0,0011.

El problema como se ve es que este procedimiento hace muy difícil


detectar H0 que sean falsas, provocando una pérdida importante en
la potencia de los contrastes
Comparaciones post hoc o a posteriori

Prueba de Tukey
Esta prueba está diseñada cuando queremos realizar todas las
comparaciones por pares: dicho número k se calcula con la fórmula
J(J – 1) / 2.

Por ejemplo, con J = 3 grupos, tenemos un total de 3(3 – 1)/2 = 3


comparaciones.
Con J = 4 grupos, tenemos un total de 4(4 – 1)/2 = 6 comparaciones.
Con J = 5 grupos, tenemos un total de 5(5 – 1)/2 = 10 comparaciones.
Etc.
Comparaciones post hoc o a posteriori

Prueba de Tukey
Este procedimiento tiene la ventaja que no es en exceso conservador (es
decir, no controla la tasa de error más de lo debido) y preserva que la
potencia de los contrastes sea adecuada.
La prueba de Tukey se parece mucho a la ya estudiada de Dunnet, ya que
consiste en encontrar la Diferencia Mínima Significativa (DMS) que es el
valor más pequeño a partir de la cual la diferencia entre dos
medias es significativa.

La expresión para encontrar la DMS de Tukey es:


DMSTukey  q J , N  J ,1 F MC E / n

Donde q es el punto crítico de la distribución con α F , con J medias y con N –


J grados de libertad.
Ejercicio
Seguimos con el ejemplo de los tres niveles de ansiedad inducidos (bajo,
medio y alto) y la VD = rendimiento. Ahora queremos hacer todas las
comparaciones por pares (αF = 0,05), esto es:
 1  bajo   medio  2  bajo   alto  3   medio   alto

1. Hipótesis:
H 0(1) : 1  bajo   medio  0 H1(1) : 1  bajo   medio  0
H 0 ( 2 ) : 2  bajo   alto  0 H1( 2 ) : 2  bajo   alto  0
H 0 (3) : 3   medio   alto  0 H1( 3) : 3   medio   alto  0
2. Supuestos: Tres muestras aleatorias normales y con la misma varianza
3. Estadístico del contraste: Buscamos el punto crítico en la tabla L para
calcular la DMSTukey
Para ello tenemos que tener en cuenta que (1) αF = 0,05, (2) J = 3 y (3) N – J =
27 (que redondeamos a 30).
Según esos datos el punto crítico q3,30, 0,95 = 3,49
Ejercicio
Luego tenemos que:
DMSTukey  3,49 13,11 / 10  4,00
Así que para rechazar las H0 tenemos que encontrar una diferencia de
medias muestral igual o mayor que 4,00. Veamos qué ocurre con las tres
comparaciones:
ˆ1  Ybajo  Ymedio  9  14  5
ˆ 2  Ybajo  Yalto  9  7  2
ˆ 3  Ymedio  Yalto  14  7  7
4. Decisión: como la primera comparación y la tercera superan la diferencia
mínima significativa (DMS) rechazamos H0(1) y H0(3) . La media poblacional
de rendimiento del grupo de ansiedad bajo difiere de la del grupo de
ansiedad medio. Asimismo, la media poblacional de rendimiento del
grupo de ansiedad alto difiere con la del grupo de ansiedad medio.
Ejercicios propuestos
6.18. En un diseño con tres grupos, ¿cuál de las siguientes hipótesis nulas
hay que contrastar para averiguar si la relación entre la VI y la VD es lineal?
a. H 0 : (1) 1   2  (1) 3  0
b. H 0 : (2) 1  (1)  2  (1) 3  0
c. H 0 : 1  (1)  2  (1) 3  0
d. H 0 :  1  3  0
e. H 0 : (1) 1  (1)  2  (2) 3  0

6.13. En un diseño con J = 4 grupos se quiere comparar la media del grupo 4


con las medias de los grupos 1, 2 y 3 tomados juntos. ¿Qué hipótesis
nula debe plantearse?
H 0 : (?) 1  (?)  2  (?) 3  (?)  4  0
Ejercicios propuestos
Un equipo de psicólogos sociales ha estudiado si el paso del tiempo ha
mermado al Partido Popular en cuanto a valoración. Para ello ha pedido a
cuatro grupos distintos de 30 personas seleccionados al azar que valore de 0
a 10 al PP: tras ganar las elecciones, tras seis meses, tras un año y finalmente
después de un año y medio. Se obtiene una MCE = 20 y una MCA = 120.
¿Con qué procedimiento analizarías este estudio? ¿Qué variables participan
en él?
¿Cuánto vale el estadístico del contraste?
Con α = 0,05, ¿qué decisión tomamos en relación a H0?, ¿cuál es la
conclusión que obtenemos?
Si quisiésemos estudiar si el paso del tiempo lleva a un desgaste de tipo
lineal, ¿cómo plantearías estadísticamente el contraste?
Si al efectuar este contraste obtenemos una p = 0,0013, ¿a qué conclusión
llegamos?
Por último, si quisiésemos comparar todos los momentos temporales entre
sí, ¿cuál es el procedimiento estadístico que utilizaríamos?
ANOVA A-CA. Ejercicio
Ejercicio ANOVA A-CA. Un conjunto de 18 ratas, seis por grupo, a las que se las recompensa con
tres cantidades diferentes de agua azucarada. La VD es el número de ensayos que necesitan
para aprender un laberinto.
Cantidad de recompensa 1 2 3 4 5 6
5cc 9 8 7 8 7 9
10cc 6 6 3 4 5 6
15cc 4 2 3 4 3 2

Plantear la H0 y la H1 __________________________________
¿Cuáles son los supuestos del contraste?
ANOVA A-CA. Ejercicio
Ejercicio ANOVA A-CA. Rellena la siguiente tabla
Fuente de variación SC gl MC F p
Intergrupos ( ) ( ) 38 35,625 0,000
Lineal ( ) ( ) ( ) ( ) 0,000
Cuadrático ( ) ( ) 1 ( ) 0,348
Cúbico ( ) ( ) ( ) ( )
Intragrupos o error ( ) ( ) ( ) - -
Total ( ) 17 - - -

¿Hay relación entre el factor y la variable dependiente? ¿Por qué?

¿Y qué tipo en concreto de relación hay (lineal o cuadrática)?


ANOVA A-CA. Ejercicio
Ejercicio ANOVA A-CA. Por último, compara entre sí todas las medias de cantidades de
recompensa para ver cuáles difieren de qué otras.

Cantidad de recompensa 1 2 3 4 5 6 Yj
5cc 9 8 7 8 7 9 8
10cc 6 6 3 4 5 6 5
15cc 4 2 3 4 3 2 3

¿Estamos pidiendo unas comparaciones a posteriori o unas comparaciones planeadas?

Formula las hipótesis nulas:

Saca la diferencia mínima significativa de Tukey (α = 0,05):


DMSTukey  q J , N  J ,1 F MC E / n
ANOVA A-CA. Ejercicio
Ejercicio ANOVA A-CA. Por último, compara entre sí todas las medias de cantidades de recompensa
para ver cuáles difieren de qué otras.

DMSTukey  q J , N  J ,1 F MCE / n  3,67 1,067 / 6  1,55

Y5cc  Y10cc  8  5  3
Y5cc  Y15cc  8  3  5

Y10 cc  Y15cc  5  3  2

Decisión y conclusiones:
Al extraer la DMS de Tukey, ese valor es 1,55, todas las diferencias de medias entre pares que
superen esa diferencia nos llevará a rechazar H0. Como eso ocurre en todas las diferencias de
medias analizadas, podemos concluir que todas las medias poblacionales difieren entre sí.

También podría gustarte