Está en la página 1de 29

Comparaciones Múltiples

Cuando se realiza un experimento, y se utiliza el modelo I, el investigador siempre está


interesado en determinar si existe o no diferencia significante entre media de
tratamientos. Estas comparaciones pueden ser planeadas o no antes del experimento.
Las pruebas de comparaciones más usadas son:

1) Prueba de t y DMS o DLS (Diferencia Mínima o Limite Significante)(Para


comparaciones planeadas).
2) Prueba de Tukey (Para muchas comparaciones planeadas o comparaciones no
planeadas).
3) Prueba de Dunnett (para comparar con un tratamiento testigo o control).
4.) Prueba de t y F con contrastes.
5) Prueba de Scheffe (para funciones lineales de media o para contraste y
comparaciones no planeadas).
6) Prueba de Bonferroni (para pocas comparaciones entre en m pares).
7) La prueba de Hsu con el mejor tratamiento (cuando se desea que el mejor o el
conjunto de los mejores tratamiento sea seleccionado)

Prueba de t y Diferencia Mínima o Límite Significante (DMS o DLS)

Esta prueba puede realizarse si se cumple las siguientes condiciones:

a) Esta prueba es válida para comparaciones planeadas. Es decir, cuando las


comparaciones entre medias de tratamientos han sido planeados de antemano,
antes de realizar el experimento.
b) La prueba de F en el ANVA debe resultar significante.
c) Los  ij es una variable aleatoria independiente distribuida normalmente con
media cero y variancia común  2 .

Prueba de t

Planteamiento de hipótesis

Caso Bilateral Unilateral a la derecha Unilateral a la izquierda


H 0 : i  i H 0 : i  i H 0 : i  i
H a : i  i H a : i  i H a : i  i

Para i  i , i, i  1, 2, ,t

Nivel de significación 

Estadística de prueba

Yi  Yi
tc  ~ tGLE  / H 0 es verdadera
SYi Yi
donde :
GLE = Grados de libertad del error
1 1 
SYi Yi  CME   
 ni ni 
Criterio de decisión

Decisión Caso Bilateral Unilateral a la Unilateral a la


derecha izquierda
Se acepta H 0 t  
 tc  t  
tc  t1 ,GLE  tc  t ,GLE 
 ,GLE  1 ,GLE 
2   2 

Se rechaza H 0 tc  t  
o tc  t  
tc  t1 ,GLE  tc  t ,GLE 
 ,GLE  1 ,GLE 
2   2 

Diferencia mínima o límite de significación (DMS o DLS)

H 0 : i  i
H a : i  i
Para i  i , i, i  1, 2, ,t

Nivel de significación 

En la prueba de t se acepta H 0 si

t  
 tc  t  
 ,GLE  1 ,GLE 
2   2 

Yi  Yi
t  
  t  
 ,GLE  SYi Yi 1 ,GLE 
2   2 

t  S
 Yi Yi
 Yi  Yi  t  S
 Yi Yi
1 ,GLE  1 ,GLE 
 2   2 

Yi  Yi  t  S
 Yi Yi
1 ,GLE 
 2 

Y se rechaza H 0 si
Yi  Yi  t  S
 Yi Yi
1 ,GLE 
 2 
Entonces si definimos

DMS  i, i   t  S
 Yi Yi
o DLS  i, i   t  S
 Yi Yi
1 ,GLE  1 ,GLE 
 2   2 

Luego, un criterio para examinar si existe diferencia significativa entre medias de


tratamiento se puede usar este criterio de la diferencia mínima o límite significante
 DMS i, i o DLS i, i . Esto es, se rechaza H 0 si
Yi  Yi  DMS  i, i o Yi  Yi  DLS  i, i
Para i  i , i, i  1, 2, ,t
Ejemplo: Para el ejemplo de tiempo de coagulación, suponga se ha planeado comparar
los verdaderos tiempo promedio de coagulación que se obtiene con la dieta A y la dieta
C, use la prueba de t para realizar esta comparación a un nivel de significación
  0.05 .

H 0 :  A  C
H a :  A  C

  0.05

1 1
 5.6  
1 1
SYA YC  CME       1.5275
 nA nC   4 6 

YA  YC 61  68
tc    4.5826
SYA YC 1.5275
t 0.025,20  2.086 y t 0.975,20  2.086 , como tc  t 0.975,20 , se rechaza H 0

Ejemplo Si se planeo realizar todas las comparaciones en el ejemplo de coagulación a


un nivel de significación   0.05 , use la prueba de DMS. Luego, se tiene:

H 0 : i  i
H a : i  i Para i  i , i, i  A, B, C, D

i A D B C
Yi. 61 61 66 68
ni 4 8 6 6

Comparaciones Yi  Yi SYi Yi DMS  i, i  t 0.975,20 SYi Yi


C-A 7 1.5275 3.1864 *
C-D 7 1.2780 2.6659 *
C-B 2 1.3663 2.8501 ns
B-A 5 1.5275 3.1864 *
B-D 5 1.2780 2.6659 *
D-A 0 1.4491 3.0228 ns
*=significativo , ns= no significativo

Prueba de t con R
> coag<-read.table("c:/victor/datos/coag.txt",header=TRUE)
> tiempo<-coag[,1]
> dieta<-coag[,2]
> pairwise.t.test(tiempo,dieta,p.adjust.method="none")

Pairwise comparisons using t tests with pooled SD

data: tiempo and dieta


a b c
b 0.00380 - -
c 0.00018 0.15878 -
d 1.00000 0.00086 2.3e-05

P value adjustment method: none

Las comparaciones múltiples afectan las tasas de error

Para probar la hipótesis


H 0 : i   j
H1 : i   j para i  j , i, j  1, 2, ,t

se utiliza la estadística

yi  y j
t0  (1)
1 1 
s2   
 ri rj 

Siendo s 2  CME , el nivel de significación o probabilidad de error tipo I para una sola
prueba es una tasa de error con respecto a la comparación ,  C , es el riesgo que estamos
dispuestos a correr en una sola comparación .

Si se tienen t tratamientos entonces se pueden hacer t  t  1 2 comparaciones por


pares. Por ejemplo si se tienen cuatro tratamientos: A, B, C, D, entonces se puede hacer
4  3  6 pares posibles de comparaciones: (A,B), (A,C), (A,D), (B,C), (B,D), (C,D), Si
se prueban los 6 pares existe la posibilidad de cometer 0, 1, 2, 3, 4, 5 o 6 errores de tipo
I, si las medias poblacionales son iguales.

Con la posibilidad de hasta 6 errores tipo I para 6 pruebas, se puede emplear otra forma
de error tipo I basada en el riesgo acumulado asociado con la familia de prueba en
estudio. La familia es el conjunto de comparaciones por pares como para el ejemplo del
párrafo anterior. El riesgo acumulado asociado con una familia de comparaciones se
conoce como la tasa de error tipo I con respecto al experimento,  E . Es el riesgo de
cometer al menos un error tipo I en la familia de comparaciones en el experimento.

Para una familia de pruebas independientes, se puede evaluar la tasa de error tipo I con
respecto al experimento. Sin embargo, no todas las pruebas son independientes con la
ecuación dado en (1), ya que s 2  CME en el denominador es la misma, y en el
numerador de cada prueba contiene la misma media que en algunos otros estadísticos
t0 .

Aunque las pruebas en la familia descrita no son independientes, se puede evaluar el


límite superior para el valor del error tipo I con respecto al experimento, si se suponen
pruebas independientes. Suponiendo que las hipótesis nulas son ciertas para cada una de
t  t  1
las n  pruebas, la probabilidad de un error tipo I para cualquier prueba sola es
2
 C ( la tasa respecto a la comparación) con 1  C  como la probabilidad de una
decisión correcta. La probabilidad de cometer x errores tipo I está dada por la
distribución Binomial como:

n
P  x      Cx 1   C 
n x
(2)
 x
para x  0,1, , n errores tipo I. La probabilidad de no cometer error tipo I es:

P  X  0   1  C 
n
(3)

La probabilidad de cometer al menos un error tipo I ( x  1, 2, , n ) es


P  x  1  1  P  x  0  , o sea

 E  1  1  C 
n
(4)
La probabilidad  E es el riesgo de cometer al menos un error tipo I entre las n
comparaciones independientes. Es el límite superior de la tasa de error tipo I con
respecto al experimento, para n pruebas en un conjunto de medias de tratamientos.

La relación

C  1  1   E 
1/ n
(5)

Expresa la tasa de error tipo I con respecto a la comparación como una función de la
tasa de error tipo I con respecto al experimento o familiar.

En la siguiente tabla se muestra la relación entre la tasa de error tipo I del Experimento
o familiar y la tasa de error tipo I de la comparación

N  E cuando C  0.05 C cuando  E  0.05


1 0.050 0.050
2 0.098 0.025
3 0.143 0.017
4 0.185 0.013
5 0.226 0.010
10 0.401 0.005

Para el caso del ejemplo de comparación de coagulación si fijamos una tasa de error
tipo I C  0.05 para cada comparación, la tasa de error tipo I para el experimento será
de  E  1  1  .05  0.265 y si fijamos una tasa de error tipo I para el experimento de
6

 E  0.05 , la tasa de error tipo I para la comparación será de


C  1  (1  0.05)1/ 6  0.009
Nota: la prueba t y DMS o DLS es recomendable para una sola comparación planeada

Prueba de Tukey-Cramer (Tukey HSD)

Esta prueba fue propuesta por Tukey(1949), quien desarrolló un procedimiento que
proporciona una tasa con respecto al experimento en el sentido fuerte, para las
comparaciones por pares de todas las medias de tratamiento, que se usa para obtener
intervalos de confianza simultáneos de 100 1    % . La prueba se le conoce por varios
nombres, entre ellas “diferencia honestamente significativa”.

Para aplicar esta prueba sólo es necesario que los  ij sea una variable aleatoria
independiente distribuida normalmente con media cero y variancia común  2 . Es decir
no se necesita que las comparaciones sean previamente planeada y que la prueba de F
en el ANVA resulte significativa.

Para realiza la prueba de Tukey se procede de la siguiente manera:

Planteamiento de hipótesis
H 0 : i  i
H a : i  i Para i  i , i, i  1, 2, ,t

Nivel de significación 

Cálculo del Valor Crítico:


1
w  q  t , GLE  SY Y
2 i i

donde:
q  t , GLE  =amplitud estudiantizada para la prueba de Tukey
t = número de tratamiento a comparar
GLE = Grados de libertad del error
1 1 
SYi Yi  CME   
 ni ni 

Se rechaza H 0 a un nivel de significación  , si

Yi  Yi  w

Ejemplo Use la prueba de Tukey para realizar todas comparaciones en el ejemplo de


coagulación a un nivel de significación   0.05 .

i A D B C
Yi. 61 61 66 68
ni 4 8 6 6
q0.05  4, 20   3.96

H 0 : i  i
H a : i  i Para i  i , i, i  A, B, C, D

Comparaciones Yi  Yi SYi Yi


w  q0.05  4, 20 
1
SY Y
2 i i
C-A 7 1.5275 4.2770 *
C-D 7 1.2780 3.5784 *
C-B 2 1.3663 3.82564 ns
B-A 5 1.5275 4.2770 *
B-D 5 1.2780 3.5784 *
D-A 0 1.4491 4.0575 ns
*=significativo , ns= no significativo

Con el paquete R

Para realizar esta pruebas con el lenguaje R bajar del CRAN los paquetes multcomp y
nvtnorm. Esto puede realizarse directamente usando el Menú para el caso que tuviera
Internet. Ente caso ir a Package y dentro de esto a la opción Install package(s) from
CRAN. Para el caso que no tuviera internet, se puede ir al CRAN y bajar los archivos
zip en www.cran.r-project/bin/windows, guardar estos archivos en una carpeta, luego ir
al menu de R a Package y dentro de este ir a la opción Install package(s) from local zip
files buscar la carpeta e instalar estos paquetes. Una vez instalado esto queda grabado en
una librería. Para usar estos paquetes primero instalar mediante la opción de Menu en
Packages e ir a la opción Load Packages y leer primero “nvtnorm” luego hacer lo
mismo con multcomp.
> coag<-read.table("d:/data2/coag.txt",header=T)
> mod<-aov(Tiempo~dieta,data=coag)
> summary(mod)
Df Sum Sq Mean Sq F value Pr(>F)
dieta 3 228.0 76.0 13.571 4.658e-05 ***
Residuals 20 112.0 5.6

> library(multcomp)
> cht <- glht(mod, linfct = mcp(dieta = "Tukey"))
> summary(cht)

Simultaneous Tests for General Linear Hypotheses

Multiple Comparisons of Means: Tukey Contrasts

Fit: aov(formula = Tiempo ~ dieta, data = coag)

Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
B - A == 0 5.000e+00 1.528e+00 3.273 0.01832 *
C - A == 0 7.000e+00 1.528e+00 4.583 < 0.001 ***
D - A == 0 -1.071e-14 1.449e+00 -7.39e-15 1.00000
C - B == 0 2.000e+00 1.366e+00 1.464 0.47487
D - B == 0 -5.000e+00 1.278e+00 -3.912 0.00433 **
D - C == 0 -7.000e+00 1.278e+00 -5.477 < 0.001 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘
’ 1
(Adjusted p values reported -- single-step method)

Con otro comando en R

> coag<-read.table("d:/data2/coag.txt",header=T)
> mod<-aov(Tiempo~dieta,data=coag)
> TukeyHSD(mod,"dieta")
Tukey multiple comparisons of means
95% family-wise confidence level

Fit: aov(formula = Tiempo ~ dieta, data = coag)

$dieta
diff lwr upr p adj
B-A 5.000000e+00 0.7245544 9.275446 0.0183283
C-A 7.000000e+00 2.7245544 11.275446 0.0009577
D-A -1.421085e-14 -4.0560438 4.056044 1.0000000
C-B 2.000000e+00 -1.8240748 5.824075 0.4766005
D-B -5.000000e+00 -8.5770944 -1.422906 0.0044114
D-C -7.000000e+00 -10.5770944 -3.422906 0.0001268

Prueba de Dunnett (comparaciones de todas las medias de tratamientos con un control


o testigo)

Tratamiento testigo o control: Es un tratamiento estándar, cuya efectividad es conocida.


Este tratamiento se usa cuando la efectividad de los tratamientos en estudio es no
conocido o cuando la efectividad general de los tratamientos bajo estudio es conocido
pero no es consistente bajo todas las condiciones.

Ejemplo: En un experimento para comparar el efecto de tres nuevos Aditivos para


gasolina, el tratamiento de control puede ser sin aditivo.

Procedimiento: Para realizar la comparación de todas las medias de tratamiento con la


media del tratamiento testigo se usa la prueba de Dunnett. Para aplicar esta prueba
requiere:

a) Las comparaciones deben ser planeada


b) Los  ij sea una variable aleatoria independiente distribuida normalmente con
media cero y variancia común  2 .

H 0 : i  1
H a : i  1 , para i  2, ,t
Donde: 1 = es la media del tratamiento testigo o de control

Nivel de significación 

Valor Crítico:
d   tDunnet  , t , GLE  SYi Y1 , para i  2, ,t
donde :

tDunnet  , t , GLE  = t de Dunnett con un nivel de significación  .


t = número de tratamiento a comparar
GLE = Grados de libertad del error
1 1 
SYi Yi  CME   
 ni ni 

Se rechaza H 0 aun nivel de significación  , si

Yi  Y1  d  , para i  2, ,t

Ejemplo: Suponga que el tratamiento A es el testigo. Use la prueba de Dunnett para


realizar la comparación entre media de tratamiento testigo con el resto a un nivel de
significación   0.05 .

H 0 : i   A
H a : i   A , para i  B, C, D

  0.05

tDunnett  0.05,3, 20   2.54

Comparaciones Yi  Yi SYi Yi d   tDunnett  0.05, 4, 20  SYi YA


D-A 0 1.4491 3.6807 ns
C-A 7 1.5275 3.8799 *
B-A 5 1.5275 3.8799 *
*=significativo , ns= no significativo

Usando el paquete R
> library(multcomp)
> coag<-read.table("d:/data2/coag.txt",header=T)
> mod<-aov(Tiempo~dieta,data=coag)
> cdu <- glht(mod, linfct = mcp(dieta = "Dunnett"))
> summary(cdu)
Simultaneous Tests for General Linear Hypotheses

Multiple Comparisons of Means: Dunnett Contrasts

Fit: aov(formula = Tiempo ~ dieta, data = coag)

Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
B - A == 0 5.000e+00 1.528e+00 3.273 0.00955 **
C - A == 0 7.000e+00 1.528e+00 4.583 < 0.001 ***
D - A == 0 -1.071e-14 1.449e+00 -7.39e-15 1.00000
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)

Prueba de t y F con Contraste

Contraste : Son subconjunto de funciones lineales de totales o media de tratamientos


estimados. De esta manera si se tiene t tratamiento, de modo que el tratamiento i está
repetido ni veces en el experimento, entonces un contraste se define:

t t t
Q   CiYi.  ni CiYi. , con n C i i 0
i 1 i 1 i 1

En el caso que n1  n2   nt  n , entonces


t t t t t t
Q   CiYi.  nCiYi.  n CiYi. , con  nCi  n Ci  0 , C i 0
i 1 i 1 i 1 i 1 i 1 i 1

Luego, para el caso Balanceado o igualmente repetido ( n1  n2   nt  n ), un


contraste se define:

t t t
Q   CiYi. n CiYi. , con C i 0
i 1 i 1 i 1

Contrastes Ortogonales:

t t
Dos contrastes: Q1   C1iYi. y Q2   C2 iYi. son ortogonales si
i 1 i 1

t t t

 niC1i  0 ,
i 1
 niC2i  0 y
i 1
nC C
i 1
i 1i 2i 0

t t
En el caso de igualmente repetido ( n1  n2   nt  n ), Q1   C1iYi. y Q2   C2 iYi.
i 1 i 1
son ortogonales si

t t t

 C1i  0 ,
i 1
 C2i  0 y
i 1
C Ci 1
1i 2i 0
Nota: En un experimento con t tratamiento y dado un contraste base entonces se puede
formar t-1 contrastes ortogonales.

t t
Media y variancia de un contraste: Sea Q   CiYi.  ni CiYi. , entonces la media del
i 1 i 1
contraste está dado por:

 t   t  t t
E Q   E  CiYi.   E  niCiYi.    niCi E Yi.    niCi i
 i 1   i 1  i 1 i 1

t
E Q    ni Ci i
i 1
y la variancia está dado por:

 t  t t
2 t
Var Q   Var  niCiYi.    ni2Ci2Var Yi.    ni2Ci2   niCi2 2
 i 1  i 1 i 1 ni i 1
t
Var Q    ni Ci2 2
i 1

Distribución Muestral de un contraste:

Si los  ij sea una variable aleatoria independiente distribuida normalmente con media
cero y variancia común  2 , entonces

t t
 t t

Q   CiYi.  ni CiYi. ~ N   niCi i ,  niCi2 2 
i 1 i 1  i 1 i 1 

Luego

t t

 niCiYi.   niCi i
Z i 1 i 1
~ N  0,1
t

nC 
i 1
i i
2 2

Además se sabe que:

 GLE  CME ~  2
 GLE 
2

También se puede demostrar que para este caso las variables


t t

 niCiYi.   niCi i  GLE  CME


Z i 1 i 1
y
t 2
nC 
i 1
i i
2 2

Son variables aleatorias independientes. Entonces

Z
t ~ tGLE 
 2GLE 
GLE
Luego

t t

 niCiYi.   niCi i
i 1 i 1
t t t

nC 
i 1
i i
2 2
 niCiYi.   niCi i
t  i 1 i 1

 GLE  CME CME  ni Ci2


t

 2
i 1
GLE

t t

 niCiYi.   niCi i
t i 1 i 1
~ tGLE 
t
CME  ni C i
2

i 1

Para realizar la prueba de t y F que se dan a continuación se necesita las siguientes


condiciones:

a) Los contraste deben ser planeados antes de realizar el experimento


b) Los  ij sea una variable aleatoria independiente distribuida normalmente con
media cero y variancia común  2 .

Prueba de t con contraste:

Suponga que se desea probar la Hipótesis

t
H 0 :  ni Ci i  0
i 1
t
H a :  ni Ci i  0
i 1
a un nivel de significación 

Estadística de Prueba
t t
Q
t ~ tGLE  / H 0 es verdadera, siendo Q   CiYi.  ni CiYi.
t
CME  ni Ci2
i 1 i 1

i 1

Luego se acepta H 0 si t  
 tc  t  
, caso contrario se rechaza.
 ,GLE  1 ,GLE 
2   2 

Prueba de F con contraste:

Suponga que se desea probar la Hipótesis

t
H 0 :  ni Ci i  0
i 1
t
H a :  ni Ci i  0
i 1
a un nivel de significación 

Estadística de Prueba

Se sabe que t2GLE   F1,GLE  , entonces la prueba de t dada anteriormente es equivalente a


usar la siguiente estadística

2
Q2
  t
  2  ni Ci2
  
Q Q
t2GLE   i 1 ~ F1,GLE 
  t
CME  ni Ci
t CME
 CME  ni Ci2
2

 i 1  i 1

Si se hace

Q2
SCQ  t
=Suma de cuadrado de contraste, entonces se puede usar la siguiente
nC
i 1
i i
2

estadística de prueba:

SCQ
Fc  ~ F1,GLE  / H 0 es verdadera
CME

Luego, se rechaza H o a un nivel de significación  , si Fc  F1 ,1,GLE 

Prueba de F con contrastes ortogonales

Si se planeado comparar t-1 funciones de medias de tratamientos resultante de t-1


contrastes ortogonales : Q1 , Q2 , , Qt 1 , se puede demostrar que
SCTrat  SCQ1  SCQ2   SCQt 1

Luego se puede tener el siguiente cuadro de ANVA

Fuente de SC GL CM Fc
Variación
Entre Tratamiento SCTrat GLTrat CMTrat CMTrat / CME
Q1 SCQ1 1 SCQ1 SCQ1 / CME
Q2 SCQ2 1 SCQ2 SCQ2 / CME
. . . . .
. . . . .
. . . . .
Qt 1 SCQt 1 1 SCQt 1 SCQt 1 / CME
Dentro de SCE GLE CME
Tratamiento
Total SCTotal n.  1

Este cuadro de ANVA permite probar las siguientes pruebas de hipótesis:

t t
H 0 :  ni Cli i  0 versus H a :  ni Cli i  0 , para l  1, 2, , t 1
i 1 i 1
t t
donde : n C
i 1
i li 0 y nC C
i 1
i li l i  0 , para l  l  y l , l   1, 2, , t 1

Nota: Para el caso de experimentos no balanceados (con tratamientos desigualmente


repetidos), sucede en muchos casos que los contrastes ortogonales que se construyen no
tienen sentidos, por esta razón lo más común es construir contrastes ortogonales para el
caso balanceado (con tratamientos igualmente repetido). En caso, n1  n2   nt  n
entonces se tiene
t
H 0 :  ni Ci i  0 es equivalente a
i 1
t t t
H 0 :  nCi i  0 , luego H 0 : n Ci i  0 esto implica que H 0 :  Ci i  0
i 1 i 1 i 1
y la suma de cuadrado de contraste se reduce a:

2 2 2
 t  2
t
  t 
2   nCi Yi .  n   CiYi.  n   CiYi. 
  i 1t    i 1    i 1 
Q
SCQ  t t t

 niCi2  nCi2
i 1
n Ci2
i 1 i 1
C
i 1
i
2
t
Luego, para el caso balanceado, se puede probar: H 0 :  Ci i  0 versus
i 1
t
H a :  Ci i  0 usando la siguiente suma de cuadrados de contraste
i 1
2
 t 
n   CiYi. 
SCQ   i t1 

 Ci2 i 1

Ejemplo : Suponga que se tiene cuatro fertilizantes que se desea comparar, con tal
motivo se realizó un experimento bajo un DCA con cinco repeticiones por tratamiento,
obteniéndose los siguientes resultados:

Fertilizante
T1 T2 T3 T4
Yi. 73.8 74.2 69.0 71.8

SCE  10.4

Además, los fertilizantes 3 y 4 poseen un componente K que no poseen los fertilizantes


1 y 2. Se ha planeado antes de realizar el experimento comparar ( T1 y T2 ) versus ( T3 y
T4 ). Obtenga todos los contrastes ortogonales. Realice las pruebas de hipótesis
correspondientes a un nivel de significación   0.05

Matriz de contraste
Fertilizante
Coeficientes T1 T2 T3 T4
C1i -1 -1 1 1
C2i -1 1 0 0
C3i 0 0 -1 1

Contrastes ortogonales
Q1  Y1.  Y2.  Y3.  Y4.
Q2  Y1.  Y2.
Q3  Y3.  Y4.

Hipótesis:

( T1 y T2 ) versus ( T3 y T4 )
H 0 : 3  4  1  2  0 contra H a : 3  4  1  2  0

T1 versus T2
H 0 : 2  1  0 contra H a : 2  1  0
T3 versus T4
H 0 : 4  3  0 contra H a : 4  3  0

2
 t 
n   C1iYi. 
 5  73.8  74.2  69.0  71.8 
2

SCQ1   i 1    64.8
            
t 2 2 2 2

 C1i
2

i 1
1 1 1 1

2
 t 
n   C2iYi. 
 5  73.8  74.2 
2

SCQ2   i 1    0.4
     
t 2 2

 C2i
2

i 1
1 1

2
 t

n   C3iYi. 
 5  69.0  71.8 
2

SCQ3   i 1    19.6
    
t 2 2

 C3i
2

i 1
1 1

Contraste SC GL CM Fc
( T1 y T2 ) versus ( T3 y T4 ) 64.80 1 64.80 99.69*
T1 versus T2 0.4 1 0.4 0.62 ns
T3 versus T4 19.6 1 19.6 30.15*
Residual 10.4 16 0.65
*=Significativo ns = no significativo F 0.95,1,16  4.49
> vp<-c(73.8,74.2,69,71.8)
> sce<-10.4
> r=5
> ct<-c(-1,-1,1,1)
> scc1<-r*((t(ct)%*%vp)^2)/(sum(ct^2))
> scc1
[,1]
[1,] 64.8
> ct2<-c(-1,1,0,0)
> scc2<-r*((t(ct2)%*%vp)^2)/(sum(ct2^2))
> scc2
[,1]
[1,] 0.4
> ct3<-c(0,0,-1,1)
> scc3<-r*((t(ct3)%*%vp)^2)/(sum(ct3^2))
> scc3
[,1]
[1,] 19.6
> tr<-4
> gle<-r*tr-tr
> gle
[1] 16
> cme<-sce/gle
> fuente<-c("Q1","Q2","Q3","Residuals")
> gl<-c(1,1,1,gle)
> SC<-c(scc1,scc2,scc3,sce)
> CM<-SC/gl
> Fc<-c(round(CM[1:3]/CM[4],4),"")
> Fc1<-as.numeric(Fc[1:3])
> pvalue1<-round(1-pf(Fc1,1,gle),4)
> pvalue<-c(pvalue1,"")
> data.frame(fuente,gl,SC,CM,Fc,pvalue)
fuente gl SC CM Fc pvalue
1 Q1 1 64.8 64.80 99.6923 0
2 Q2 1 0.4 0.40 0.6154 0.4442
3 Q3 1 19.6 19.60 30.1538 0
4 Residuals 16 10.4 0.65
>
Prueba de Scheffe

Es una prueba que permite realizar pruebas sobre cualquier función estimable de
medias de tratamientos (o de funciones lineales de medias de tratamientos). Esto quiere
decir que se puede realizar infinitas pruebas simultáneas aunque en la práctica se
realice un número finito de pruebas simultáneas. Inclusive esta prueba válida para
comparaciones sugeridas por los datos. Luego, esta prueba de hipótesis sobre las
siguientes funciones lineales de parámetros:

t t
L   Ci i donde C i 0
i 1 i 1

Para aplicar esta prueba se requiere que los  ij son variables aleatorias independientes
distribuidas normalmente con media cero y variancia común  2 . Entonces, para probar
las siguientes hipótesis

t
H 0 :  Ci i  0 contra
i 1
t
H a :  Ci i  0
i 1

Nivel de significación 

Valor Crítico de la prueba

VCS  S Lˆ  t  1 F1 ,t 1,GLE 


donde:

t
Lˆ   CiYi.
i 1
t
Ci2
S Lˆ  CME 
i 1 ni

t = número de tratamientos que involucra la función estimable.

Se acepta H 0 , si
L̂  VCS

Se rechaza H 0 , si
20 L̂  VCS

Ejemplo: Con los datos de tiempo de coagulación, pruebe:

H 0 :  A  B  C  D  0 contra la alternativa H a :  A  B  C  D  0

  0.05

A B C D
Yi. 61 66 68 61
ni 4 6 6 8
Ci 1 1 -1 -1

CME  5.6 , F 0.95,4,20  3.10


t
Lˆ   CiYi.  1 61  1 66    1 68    1 61  2
i 1

Ci2
t  12 12  12  12 
S Lˆ  CME    5.6        1.991649
i 1 ni
 4 6 6 8 

VCS  SLˆ  t  1 F1 ,t 1,GLE   1.991649  4 13.1  6.072138

Como Lˆ  2  VCS  6.072138 , se acepta H 0

Usando R
> tiempo<-coag[,1]
> dieta<-coag[,2]
> yp<-tapply(tiempo,dieta,mean)
> ci<-c(1,1,-1,-1)
> lab<-abs(t(ci)%*%yp)
> lab
[,1]
[1,] 2
> re<-tapply(tiempo,dieta,length)
> mod<- lm(tiempo~dieta)
> cme<-deviance(mod)/df.residual(mod)
> sdl<-sqrt(cme*(sum(ci^2/re)))
> vcs<-sdl*sqrt(3*qf(0.95,3,20))
> vcs
[1] 6.072138

El Método de Bonferroni
Este método se basa en la desigualdad de Bonferroni, el cual dice: dado una secuencia
de eventos  Aj  , P  j 
Aj   j P  Aj  . De esta manera la posibilidad de uno o más
error tipo I es una colección arbitraria de la prueba es a lo más la suma de sus
t 
posibilidades separada de error tipo I. Para el caso que se desee realizar nc    de
 2
tratamientos se puede seguir el siguiente procedimiento:

1) Plantear las hipótesis:

H 0 : i  i
H a : i  i , para i  i , y i, i  1, 2, .t

2) Fijar el nivel de significación de comparación simultánea 


3) Encontrar toda las diferencias absolutas de medias muestrales para las
comparaciones:

Yi.  Yi. , para i  i , y i, i  1, 2, .t

4) Encontrar el valor Crítico de Bonferroni

VCB  i, i   t  S
 Y Y
1 ,GLE  i . i.
 2 nc 
donde:
1 1 
SYi . Yi.  CME   
 ni ni 

Se rechaza H 0 para i  i , y i, i   1, 2, . t , si

Yi.  Yi.  VCB  i, i

Para aplicar esta prueba se requiere que  ij son variables aleatorias independientes
distribuidas normalmente con media cero y variancia común  2 . Además, en este caso
las comparaciones deben ser planeadas de antemano. Esta prueba es recomendable
cuando se desea realizar pocas comparaciones entre medias de tratamientos.

Ejemplo Si se planeo realizar todas las comparaciones en forma simultanea en el


ejemplo de coagulación a un nivel de significación   0.05 , use la prueba de
Bonferroni. Luego, se tiene:

H 0 : i  i
H a : i  i Para i  i , i, i  A, B, C, D

i A D B C
Yi. 61 61 66 68
ni 4 8 6 6

t 0.05 
 t 0.9958333,20  2.927116 , esto se obtuvo usando R:
1 ,20 
 12 
> qt(0.9958333,20)
[1] 2.927116

Comparaciones Yi  Yi SYi Yi VCB  i, i   t 0.9995833,20 SYi Yi


C-A 7 1.5275 4.471243* 4.471243
C-D 7 1.2780 3.74091* 3.740910
C-B 2 1.3663 3.999201ns 3.999201
B-A 5 1.5275 4.471243* 4.471243
B-D 5 1.2780 3.74091* 3.740910
D-A 0 1.4491 4.241793ns 4.241793
*=significativo , ns= no significativo

> pairwise.t.test(tiempo,dieta,p.adjust.method="bonferroni")

Pairwise comparisons using t tests with pooled SD

data: tiempo and dieta

a b c
b 0.02282 - -
c 0.00108 0.95266 -
d 1.00000 0.00518 0.00014

P value adjustment method: bonferroni

Nota el R da los pvalue ajustado de manera que se pueda tomar decisiones con la tasa
de error del experimento.

Prueba de Comparaciones Múltiple con el Mejor

El objetivo de esta prueba es seleccionar el conjunto de tratamientos o un sólo


tratamiento (si es posible) que proporcione el resultado más deseable. El procedimiento
de comparaciones múltiple con el mejor (CMM) permite al investigador clasificar los
tratamientos de manera que la mejor población esté incluida en subconjunto con un
nivel de confianza dado. Existen dos casos:

a) Elección de subconjunto con la media más grande


b) Elección de subconjunto con la media más pequeña

a) Elección de subconjunto con la media más grande

En este caso los parámetros de interés son:

i .  máx  j , para i  1, 2, ,t
j i
donde: máx  j es la media máxima sin incluir i . Si i .  máx  j  0 , entonces el
j i j i

tratamiento i es el mejor. Por otro lado, si i .  máx  j  0 , entonces el tratamiento i


j i

no es el mejor.

Los intervalos de confianza simultáneos (ICS) de las CMM para i .  máx  j tiene la
j i

restricción de incluir el cero con la perspectiva de que a la larga dos tratamientos nunca
tienen promedio idénticos. El intervalo de confianza CMM restringido establece que el
tratamiento i es uno de los mejores si el intervalo para i .  máx  j incluye el cero o el
j i

cero es su límite inferior. Por el contrario, si el límite superior del intervalo para
i .  máx  j es cero, entonces el tratamiento i no es el mejor. El procedimiento para
j i

construir los intervalos de confianza simultáneos se da a continuación:

1.- Se calcula la diferencia, Di  yi  máx  y j  , para i  1, 2, , t . Esto es entre cada


j i

media de tratamiento, yi , y la mayor media de tratamiento de los restantes, máx  y j 


j i

2CME
2.- La cantidad M  d ,t 1, gle , donde d ,t 1, gle es el estadístico tabulado para las
r
comparaciones de un lado en la Tabla IV del apéndice del texto Diseños de
Experimentos de Robert Kuehl para una tasa experimental de  , t  1 comparaciones y
gle grados de libertad del error experimental.
3.- Encontrar los intervalos de confianza restringidos. El límite inferior del intervalo de
confianza restringido para i .  máx  j es:
j i

 D  M , Si Di  M  0
L i
0 de otra manera

y el límite superior de confianza para i .  máx  j es:


j i

 D  M , Si Di  M  0
U  i
0 de otra manera

4.- Para obtener el mejor tratamiento o el conjunto de los mejores de tratamientos con
una tasa de error experimental de  se selecciona a aquellos tratamientos cuyo límite
superior cumple con la regla: Di  M  0

b) Elección de subconjunto con la media más pequeña

En este caso los parámetros de interés son:

i .  min  j , para i  1, 2, ,t
j i
donde: min  j es la media mínima sin incluir i . Si i .  min  j  0 , entonces el
j i j i

tratamiento i es el mejor. Por otro lado, si i .  min  j  0 , entonces el tratamiento i


j i

no es el mejor.

El procedimiento para construir los intervalos de confianza simultáneos se da a


continuación:

1.- Se calcula la diferencia, Di  yi  min  y j  , para i  1, 2, , t . Esto es entre cada


j i

media de tratamiento, yi , y la menor media de tratamiento de los restantes, min  y j 


j i

2CME
2.- La cantidad M  d ,t 1, gle , donde d ,t 1, gle es el estadístico tabulado para las
r
comparaciones de un lado en la Tabla IV del apéndice del texto Diseños de
Experimentos de Robert Kuehl para una tasa experimental de  , t  1 comparaciones y
gle grados de libertad del error experimental.
3.- Encontrar los intervalos de confianza restringidos. El límite inferior del intervalo de
confianza restringido para i .  min  j es:
j i

 D  M , Si Di  M  0
L i
0 de otra manera

y el límite superior de confianza para i .  min  j es:


j i

 D  M , Si Di  M  0
U  i
0 de otra manera
4.- Para obtener el mejor tratamiento o el conjunto de los mejores de tratamientos con
una tasa de error experimental de  se selecciona a aquellos tratamientos cuyo límite
inferior cumple con la regla: Di  M  0

Observación: Hsu (1996) desarrolló su metodología para el caso balanceado donde las
variancias de la diferencia de media de tratamientos son todos iguales. Por otro lado,
para el caso del Diseño completamente aleatorizado desigualmente repetido,
recomienda algunas aproximaciones basadas en desigualdades de probabilidad, que
paquetes como el Minitab ha incorporado

Ejemplo: Un ingeniero de desarrollo de producto le interesa determinar si el porcentaje


de algodón en una fibra sintética afecta la tensión, y ha llevado a cabo un experimento
completamente aleatorizado con 5 niveles del peso porcentual de algodón y cinco
réplicas. los resultados sobre resistencia en lb/pulg2 del experimento se muestra a
continuación:
> algodon
Resistencia Porcentajes
1 7 15
2 7 15
3 15 15
4 11 15
5 9 15
6 12 20
7 17 20
8 12 20
9 18 20
10 18 20
11 14 25
12 18 25
13 18 25
14 19 25
15 19 25
16 19 30
17 25 30
18 22 30
19 19 30
20 23 30
21 7 35
22 10 35
23 11 35
24 15 35
25 11 35

One-way ANOVA: Resistencia versus Porcentajes

Source DF SS MS F P
Porcentajes 4 475,76 118,94 14,76 0,000
Error 20 161,20 8,06
Total 24 636,96

S = 2,839 R-Sq = 74,69% R-Sq(adj) = 69,63%

Individual 95% CIs For Mean Based on


Pooled StDev
Level N Mean StDev ------+---------+---------+---------+---
15 5 9,800 3,347 (-----*----)
20 5 15,400 3,130 (----*----)
25 5 17,600 2,074 (----*----)
30 5 21,600 2,608 (----*----)
35 5 10,800 2,864 (-----*----)
------+---------+---------+---------+---
10,0 15,0 20,0 25,0

Pooled StDev = 2,839

Hsu's MCB (Multiple Comparisons with the Best)

Family error rate = 0,05


Critical value = 2,30

Intervals for level mean minus largest of other level means

Level Lower Center Upper ---+---------+---------+---------+------


15 -15,938 -11,800 0,000 (-----*----------------)
20 -10,338 -6,200 0,000 (-----*--------)
25 -8,138 -4,000 0,138 (-----*-----)
30 -0,138 4,000 8,138 (-----*-----)
35 -14,938 -10,800 0,000 (-----*--------------)
---+---------+---------+---------+------
-14,0 -7,0 0,0 7,0
En este caso el conjunto de los tratamientos con mejores resistencia promedio está dado
por los tratamientos con los porcentajes de algodón 25 y 30

En el caso del tiempo de coagulación, si estuviéramos interesados en determinar con


cuales de las dietas se obtienen las menores medias de los tiempos de coagulación,
aplicando la prueba de Hsu se tiene:

ANOVA unidireccional: Tiempo vs. dieta

Fuente GL SC MC F P
dieta 3 228.00 76.00 13.57 0.000
Error 20 112.00 5.60
Total 23 340.00

S = 2.366 R-cuad. = 67.06% R-cuad.(ajustado) = 62.12%

ICs de 95% individuales para la media


basados en Desv.Est. agrupada
Nivel N Media Desv.Est. -----+---------+---------+---------+----
A 4 61.000 1.826 (-------*--------)
B 6 66.000 2.828 (------*------)
C 6 68.000 1.673 (------*-----)
D 8 61.000 2.619 (----*-----)
-----+---------+---------+---------+----
60.0 63.0 66.0 69.0

Desv.Est. agrupada = 2.366

MCB de Hsu (comparaciones múltiples con el mejor)

Tasa de error por familia = 0.05


Valor crítico = 2.22

Intervalos para la media de los niveles menos la menor de las medias de otros
niveles

Nivel Inferior Centro Superior ---------+---------+---------+---------+


A -3.214 0.000 3.214 (--------*--------)
B 0.000 5.000 8.388 (-------------*---------)
C 0.000 7.000 10.388 (-------------------*---------)
D -3.214 0.000 3.214 (--------*--------)
---------+---------+---------+---------+
0.0 3.5 7.0 10.5

Varias Muestras Independientes (La prueba de Kruskal - Wallis)

Cuando no se cumple el supuesto de Normalidad de los errores, una alternativa es usar


Métodos no paramétricos, como la pruebas de Kruskal-Wallis. Para realizar esta prueba
se sigue el siguiente procedimiento.
Datos: Los datos consisten de k muestras aleatorias, posiblemente de tamaños
diferentes. La i-ésima muestra aleatoria de tamaño ni se denota por X i1 , X i 2 ,  , X ini .
Entonces, los datos pueden ser arreglados en columna:

Muestra1 Muestra 2 ... Muestra k


X11 X21 Xk1
X12 X22 Xk2
. . .
. . .
. . .
X 1n1 X 2n 2 X kn k

Sea N que denota el número total de observaciones

k
N  ni (1)
i 1

Asignar el rango 1 al más pequeño de la totalidad de N observaciones, rango 2 al


segundo más pequeño, y así sucesivamente hasta el más grande de todas las
observaciones, al cual se le asigna rango N. Sea R(Xij) que representa el rango asignado
a Xij. Sea Ri la suma de rango asignado a la i-ésima muestra

 R X ij 
ni
Ri  i=1, 2, ..., k (2)
j 1

Calcule Ri para cada muestra.

En caso que existan empates, asignar el promedio de los rangos a cada una de las
observaciones empatadas.

Asunciones:

1.- Todas las muestras son muestras aleatorias de sus respectivas poblaciones

2.- Las muestras son mutuamente independientes.

3.- La escala de medida es al menos ordinal.

4.- Las k poblaciones tienen funciones de distribución idénticas, o algunas de las


poblaciones tiende a producir valores más grandes que otras poblaciones.

Hipótesis :

H0 : Las k poblaciones tienen funciones de distribución idénticas.

H1 : Al menos una de las k poblaciones tiende a producir observaciones más grandes


que las restantes.

Nota : La prueba de Kruskal - Wallis está diseñado para ser más sensitivo contra la
diferencia entre medias en k poblaciones, por esta razón, algunas veces la hipótesis
alternativa se expresa como sigue :

H1 : Las k poblaciones no tiene medias idénticas.


Estadístico de Prueba : Se usa el siguiente estadístico

1  k Ri2 N  N  1 
2

T  2    (3)
S  i 1 ni 4 
donde

1  N  N  1 
 
2

 R X ij
2
S2    (4)
N  1  i, j 4 

N  N  1
2
2
si no hay empates S se simplifica a y el estadístico de prueba se reduce a
4

12 k
Ri2
T   3 N  1
N  N  1 i 1 ni
(5)

Si hay pocos empates (número de empates moderado) de manera que los valores
obtenidos con la ecuación (3) y (5) son muy próximos, entonces se prefiere usar
ecuación (5).

Regla de decisión :
Si k=3, todos los tamaños de muestras son 5 o menos y no hay empates, el cuantil
exacto puede ser obtenido de la tabla A8. Tabla más completa pueden ser obtenidos de
Iman Quade y Alexander (1975). Cuando hay empates o cuando tablas exactas no son
disponibles, entonces se puede usar la aproximación

T  2k 1 | H0 es cierta

Comparaciones Múltiples :

Si y solamente si la hipótesis nula es rechazada, se puede usar el siguiente


procedimiento para determinar cuales de los pares de poblaciones tiende a ser
diferentes. Así, para ver si existe diferencia entre las poblaciones i y j a un nivel de
significación  se compara:

Ri R j

ni n j
con

1/ 2
 S 2  N  1  T  1 1 
t 1  , N  k     
 2  N k  ni n j  

Así si
1/ 2
Ri R j  S 2  N  1  T  1 1 
  t 1  , N  k     
ni n j  2  N k  ni n j  

Existe diferencia entre las funciones de distribución de las poblaciones i y j a un nivel


de significación .

Ejemplo No 1 : Para comparar tres métodos de enseñanza de programación en cierto


lenguaje en computadora, en donde:

El método A: instrucción directa con la computadora


El método B: instrucción de teoría y práctica en computadora
El método C: instrucción solo de clase teóricas

Se extraen de grandes grupos de alumnos instruidas por uno de los métodos en forma
aleatoria: 4 alumnos del método A, 6 del método B y 5 del método C. Luego se les tomó
una prueba. Los puntajes obtenidos se dan a continuación:

Métodos
A B C
73 91 72
77 90 76
67 81 79
71 83 77
84 78
83

H0 : Los tres métodos son equivalentes.


H1 : Algunos métodos de enseñanza tiene puntajes más altos que otros.

Métodos
A B C
Observ. Rango Observ. Rango Observ. Rango
73 4 91 15 72 3
77 6.5 90 14 76 5
67 1 81 10 79 9
71 2 83 11.5 77 6.5
84 13 78 8
83 11.5
Ri 13.5 75 31.5
ni 4 6 5

N=15

1  N  N  1   1   15 15  1 
2 2

 R  X ij  
2
S 
2
  1239    19.92857
N  1  i , j 4   15  1   4 
1  k R 2 N  N  12  1  15 15  1 
2

T 2  i
   1181.513    11.11535
S  i 1 ni 4  19.92857  4 

20.95,2  5.991, se rechaza H0.

Como se rechazó H0 en la prueba anterior, entonces se prosigue con las comparaciones


múltiples para determinar entre que métodos existe diferencias en los rendimientos:
t 0.975,11  2.201

Comparaciones Ri R j  S 2  N  1  T   1 1 
1/ 2

 t1  , N  k      
ni n j 2
 N k  ni n j  
AyB 9.125 3.078296*
AyC 2.925 3.199059ns
ByC 6.2 2.887698*

> curso<-read.table("calif.txt",T)
> calificación<-curso[,1]
> método<-curso[,2]
> library(agricolae)
> kruskal(calificación,método)

Study:
Kruskal-Wallis test's
Ties or no Ties

Value: 11.11532
degrees of freedom: 2
Pvalue chisq : 0.003857788

método, means of the ranks

calificación replication
a 3.375 4
b 12.500 6
c 6.300 5

t-Student: 2.178813
Alpha : 0.05
LSD : 3.057705

Harmonic Mean of Cell Sizes 4.864865


Means with the same letter are not significantly different

Groups, Treatments and mean of the ranks


a b 12.5
b c 6.3
b a 3.375

> kruskal(calificación,método,group=FALSE)

Study:
Kruskal-Wallis test's
Ties or no Ties
Value: 11.11532
degrees of freedom: 2
Pvalue chisq : 0.003857788

método, means of the ranks

calificación replication
a 3.375 4
b 12.500 6
c 6.300 5

Comparison between treatments mean of the ranks

Difference pvalue sig LCL UCL


a - b -9.125 0.000032 *** -12.203296 -6.0467039
a - c -2.925 0.069606 . -6.124059 0.2740591
b - c 6.200 0.000534 *** 3.312302 9.0876977
>

También podría gustarte