Está en la página 1de 30

UNIVERSIDAD DE ORIENTE

COORDINACIÒN DE POSTGRADO
MAESTRÌA EN INGENIERÌA DE GAS
MATURÍN/ MONAGAS/ VENEZUELA

PRUEBAS PARA DETECTAR DIFERENCIAS MÍNIMAS


SIGNIFICATIVAS: PRUEBA DE LA DIFERENCIA MÍNIMA
SIGNIFICATIVA (DMS), PRUEBA DE DUNNETT T PRUEBA DE TUKEY

FACILITADOR: MAESTRANTES:
MsC. Carlos De La Cruz Ing. Ruthceddy La Rosa CI: V-20806545
Ing. Cristina Bolívar CI: V-20526028

Agosto 2022
Prueba ANOVA o de análisis de Varianza

En estadística, el análisis de la varianza (ANOVA por sus siglas en inglés, Analysis of

Variance) es una colección de modelos estadísticos y sus procedimientos asociados, en

el cual la varianza está particionada en ciertos componentes debidos a diferentes

variables explicativas. Es una técnica estadística que permite descomponer la

variabilidad total de los resultados de un experimento en sus distintas fuentes

(tratamientos, interacciones entre factores, co variables, error experimental), con la

finalidad de compararlas e identificar su importancia relativa en la explicación de la

variabilidad total.

En este caso comparamos las estimaciones de la varianza entre muestras y al

interior de cada muestra para determinar mediante una prueba si se trata de una

misma población ( : las muestras provienen de la misma población) o si por el

contrario, provienen de diferentes poblaciones. Una vez probado que al menos un par

de medias es diferente se procede a aplicar una prueba de comparaci ones múltiples de

medias para determinar cuales de ellos son estadísticamente diferentes. Un método de

análisis alternativo es realizar comparaciones planeadas; para las cuales no es

necesario realizar primero una prueba (Fig. 1)


Tipo De Estudio

1. Diseño experimental: 2. Estudio no experimental:


Los tratamientos son asignados al Los tratamientos no son asignados
azar a las unidades experimentales al azar a las unidades
experimentales

Existen tres o mas tratamientos o condiciones a probar

Tabla de análisis de varianza


H0: las medias son iguales
HA: al menos un par de medias es diferente

Comparaciones multiples Comparaciones planeadas

Figura 1: flujograma de un análisis de varianza

Pruebas para detectar diferencias mínimas significativas

Cuando la prueba del ANOVA (Análisis de Varianza) resulta significativa, es decir,

que .Los efectos de los tratamientos son iguales, no se

acepta, quiere decir que se tienen medias iguales y diferentes, ya que se puede dar el

caso que en una serie de tratamientos la prueba nos indique diferencias en el conjunto,

pero igualdad en un par en particular.

Cuando se rechaza y se utilizan varios tratamientos, es necesario realizar una

comparación de las medias de los tratamientos para poder elegir el mejor de ellos.
Para identificar que tratamientos deben considerarse iguales o diferentes, se

realizan pruebas de significancia de diferencias entre las medias de los tratamientos,

para lo cual estudiaremos los métodos siguientes.

1. Prueba de diferencia mínima significativa (D.M.S.)

2. Prueba de Dunnett

3. Prueba de Tukey

 Comparaciones o pruebas de rango múltiples

Después de que se rechazó la hipótesis nula en un análisis de varianza, es

necesario ir a detalle y ver cuáles tratamientos son diferentes. A continuación veremos

tres estrategias distintas para ir a ese detalle.

 Comparación de parejas de medias de tratamientos

Cuando no se rechaza la hipótesis nula , el objetivo del

experimento está cubierto y la conclusión es que los tratamientos no son diferentes. Si

por el contrario se rechaza , y por consiguiente se acepta la hipótesis alternativa:

para algún , es necesario investigar cuáles tratamientos resultaron

diferentes, o cuáles provocan la diferencia. Como se acaba de ilustrar en la gráfica de

medias, estas interrogantes se responden probando la igualdad de todos los posibles

pares de medias, para lo que se han propuesto varios métodos, conocidos como
métodos de comparaciones múltiples o pruebas de rango múltiple. La diferencia

primordial entre los métodos radica en la potencia que tienen para detectar las

diferencias entre las medias. Se dice que una prueba es más potente si es capaz de

detectar diferencias más pequeñas.

1. Método LSD (diferencia mínima significativa)

Una vez que se rechazó en el ANOVA, el problema es probar la igualdad de

todos los posibles pares de medias con la hipótesis:

Esta prueba es una alternativa de la prueba t de student, se aplica cuando las

medias son independientes y las comparaciones son planeadas antes de ser

examinados los datos, es adecuada para hacer comparaciones de tratamientos con un

tratamiento estándar.

()
El número de comparaciones se obtiene aplicando la expresión , donde es el

número de tratamientos.

La regla de decisión para este tipo de pruebas es la siguiente:


Sí | ̅ ̅ | , las medias de los tratamientos son estadísticamente diferentes

Sí | ̅ ̅ | , las medias son estadísticamente iguales.

El estadístico de prueba para cada una de las hipótesis dadas es la

correspondiente diferencia en valor absoluto entre sus medias muéstrales | ̅

̅ |.Se rechaza la hipótesis si ocurre que

| ̅ | √ ( )

Donde el valor de se lee en las tablas de la distribución T de Student con

grados de libertad que corresponden al error, el es el cuadrado medio del

error y se obtiene de la tabla de ANOVA, y son el número de observaciones para

los tratamientos y , respectivamente. La cantidad se llama diferencia mínima

significativa (least significant difference), ya que es la diferencia mínima que debe existir

entre dos medias muestrales para considerar que los tratamientos correspondientes

son significativamente diferentes. Así, cada diferencia de medias muestrales en valor

absoluto que sea mayor que el número se declara significativa. Note que si el

diseño es balanceado, es decir, si , la diferencia mínima

significativa se reduce a:

√ ⁄
En caso de rechazar se acepta la hipótesis alternativa , la cual nos

dice que las medias de los tratamientos y son diferentes. El método tiene una

potencia importante, por lo que en ocasiones declara significativas aun pequeñas

diferencias.

 Ejemplo del método LSD

Comparación de cuatro métodos de ensamble. Un equipo de mejora investiga el efecto

de cuatro métodos de ensamble A, B, C y D, sobre el tiempo de ensamble en minutos.

En primera instancia, la estrategia experimental es aplicar cuatro veces los cuatro

métodos de ensamble en orden completamente aleatorio (las 16 pruebas en orden

aleatorio). Los tiempos de ensamble obtenidos se muestran en la tabla 1.1. Si se usa el

diseño completamente al azar (DCA), se supone que, además del método de ensamble,

no existe ningún otro factor que influya de manera significativa sobre la variable de

respuesta (tiempo de ensamble).

Método de ensamble

A B C D

6 7 11 10

8 9 16 12

7 10 11 11

8 8 13 9

Tabla1.1
Una manera de comparar los métodos de ensamble (tratamientos) es probar la

hipótesis:

(1.1)

En caso de no rechazar se concluye que los tiempos promedio de los cuatro

métodos de ensamble son estadísticamente iguales; pero si se rechaza, se co ncluye

que al menos dos de ellos son diferentes.

ANOVA para los métodos de ensamble

tratamientos 69.5 3 23.17 9.42 0.0018

Error 29.5 12 2.46

total 99.0 15

Tabla1.2
Cálculos

Detalles de los cálculos para el ANOVA para el tiempo de ensamble


Métodos de ensamble Operaciones básicas
A B C D
6 7 11 10 ∑ ∑
8 9 16 12
Observaciones
7 10 11 11
8 8 13 9 suma de los cuadrados de todas las
observaciones o datos

Total por
∑ ∑
tratamiento( ) 29 34 51 42

Suma de los datos

Número de datos ∑
en cada 4 4 4 4
Tratamiento ( )
Total de mediciones
̅
Media muestral por 7.25 8.50 12.75 10.50
tratamiento (̅ ̅ ̅ )
Media global
Desviaciones ̂ ̅ ̅
respecto a la media -2.50 -1.25 3.0 0.75
Efecto estimado del método
global ( ̂ )
Tabla 1.3

1. Suma total de cuadrados o variabilidad total de los datos:

∑ ∑

2. Suma de cuadrados de tratamientos o variabilidad debida a la diferencia entre


métodos de ensamble:

( )

3. Suma de cuadrados del error o variabilidad dentro de métodos de ensamble:


4. Cuadrados medios de tratamientos y del error (efecto ponderado de cada fuente
de variación):

5. Estadístico de prueba:

ANOVA para los métodos de ensamble

tratamientos 69.5 3 23.17 9.42 3.49

Error 29.5 12 2.46

Total 99.0 15

Tabla1.4

Con toda esta información se procede a llenar la tabla 1.2 de ANOVA. Para rechazar

o no una hipótesis se compara el estadístico de prueba contra un número crítico de

tablas. En el caso de las tablas de la distribución F en la tabla 1.4, se lee que el valor

crítico para es . Como , entonces se

rechaza , con lo cual se concluye que sí hay diferencia o efecto de los métodos de

ensamble en cuanto a su tiempo promedio.


Puntos críticos al 5 de la distribución ( )
Grados de libertad en el numerador
1 2 3 4 5
1 161 199 216 225 230
2 18.5 19.0 19.2 19.2 19.3

Grados de libertad en el denominador


3 10.1 9.55 9.28 9.12 9.01
4 7.71 6.94 6.59 6.39 6.26
5 6.61 5.79 5.41 5.19 5.05
6 5.99 5.14 4.76 4.53 4.39
7 5.59 4.74 4.35 4.12 3.97
8 5.32 4.46 4.07 3.84 3.69
9 5.12 4.26 3.86 3.63 3.48
10 4.96 4.10 3.71 3.48 3.33
11 4.84 3.98 3.59 3.36 3.20
12 4.75 3.89 3.49 3.26 3.11
13 4.67 3.81 3.41 3.18 3.03
14 4.60 3.74 3.34 3.11 2.96

Tabla 1.5

Con el ANOVA se rechazó la hipótesis y se acepta que al

menos un par de medias de tratamientos (métodos de ensamble) son diferentes entre

sí. Para investigar cuáles pares de medias son estadísticamente diferentes se prueban

los seis posibles pares de hipótesis:

Tabla 1.6

Utilizando el método de LSD. En el ANOVA de la tabla 1.4 se observa que los grados
de libertad del error son , y que el cuadrado medio del error es
Si usamos una significancia predefinida de , de la tabla de la distribución T

de Student (tabla 1.5) con 12 grados de libertad, se obtiene que..........................Como

en cada tratamiento se hicieron pruebas, entonces:

Área a la derecha de los puntos, ( )


Grados de 0.10 0.05 0.025 0.015
libertad
1 3.0776835 6.3137515 12.706205 21.204949
2 1.8856181 2.9199856 4.3026527 5.6427784
3 1.6377444 2.3533634 3.1824463 3.8960459
4 1.5332063 2.1318468 2.7764451 3.2976297
5 1.475884 2.0150484 2.5705818 3.002875
6 1.4397557 1.9431803 2.4469119 2.8289279
7 1.4149239 1.8945786 2.3646243 2.714573
8 1.3968153 1.859548 2.3060041 2.6338144
9 1.3830287 1.8331129 2.2621572 2.573804
10 1.3721836 1.8124611 2.2281389 2.5274842
11 1.3634303 1.7958848 2.2009852 2.4906639
12 1.3562173 1.7822876 2.1788128 2.4607002
Tabla 1.7

√⁄ √

La decisión sobre cada una de las seis hipótesis listadas arriba se obtiene al comparar
las correspondientes diferencias de medias muestrales en valor absoluto con el número
. Se declaran significativas aquellas diferencias que son mayores a este
número. Los resultados se muestran en la tabla 1.8, de donde se concluye que
, mientras que .

Aplicación de la prueba LSD a métodos de ensamble.


Diferencia poblacional Diferencia muestral Decisión
en valor absoluto
| | 1.25 < 2.42 No significativa
| | * 5.50 > 2.42 Significativa
| | * 3.25 > 2.42 Significativa
| | * 4.25 > 2.42 Significativa
| | 2.00 < 2.42 No significativa
| | 2.25 < 2.42 No significativa
Tabla1.8
Prueba de Dunnett

La prueba de Dunnett es un procedimiento de comparación múltiple desarrollado por

el estadístico canadiense Charles Dunnett en el año 1955 para comparar cada uno de

varios tratamientos con un solo control, las comparaciones múltiples con un control

también se denominan comparaciones de muchos a uno. Se utiliza fundamentalmente

para comparar cada grupo con un grupo control, el cual permite detectar todos los

tratamientos que son tan buenos como el control o mejores que el.

De igual forma, la prueba de Dunnett se utiliza en el análisis de varianza (ANOVA)

para crear intervalos de confianza para las diferencias entre la media de cada nivel de

factor y la media de un grupo de control. Si un intervalo contiene el cero, no hay

diferencia significativa entre las dos medias que están comparándose.

Descripción formal de la prueba de Dunnett

La prueba de Dunnett se realiza calculando un estadístico t de Student para cada

experimento o tratamiento, grupo en el que la estadística compara el grupo de

tratamiento a un único grupo de control. En particular, la t-estadística se deriva de la

misma estimación de la varianza del error que se obtiene mediante la agrupación de las

sumas de cuadrados para el error en todos los grupos (tratamiento y control).

Igualmente, la prueba estadística formal para la prueba de Dunnett es o bien el más

grande en valor absoluto de estas camisetas y estadísticas (si se requiere una prueba
de dos colas), o el más negativo o más positivo de las estadísticas t(para pruebas de

una cola).

Además, se usan las tablas de referencia de valores críticos para la prueba de

Dunnett, debido a que asumen que hay igual número de ensayos en cada grupo, pero

las opciones más flexibles, son hoy en día fácilmente disponible en muchos paquetes

estadísticos como R. Los valores críticos para cualquier punto determinado porcentaje

dependen de: si se realiza una prueba de dos colas o una el número de grupos que se

comparan y el número total de ensayos.

Por consiguiente, el objetivo central de esta prueba es detectar aquellos tratamientos

que difieren de cierto tratamiento de interés, sin realizar todas las posibles

comparaciones entre los distintos pares de medias de tratamientos.

El valor crítico para comparar la diferencia a un nivel de significancia α

será:

() ( )√ (1,2)

Dónde:

D(a)= Valor crítico para comparar a la media de un tratamiento testigo (Ῡt) y un

tratamiento i (Ῡi) a un nivel de significancia α

TDunnet (a; p,e g.L.)= Valor de la tabla de Dunnet, a un nivel de significancia α; para p

tratamientos incluyendo el testigo

E g.L.= grados de libertad del error.


CME= Cuadrado medio del error

R= Número de repeticiones

Procedimiento

1. Obtener los valores absolutos de las diferencias entre el testigo y cada uno de los

demás tratamientos

2. Comparar a vs el valor correspondiente Dα

3. Si > Dα se declara significativa la diferencia observada entre las medias

de los tratamientos

4. se identifica con un asterisco a aquellos tratamientos que difieren significativamente

del testigo.

Ejemplo numérico 1

Un ingeniero de desarrollo de productos le interesa determinar si el peso porcentual

del algodón en una fibra sintética afecta la resistencia a la tensión, para esto se ha

llevado a cabo un experimento completamente aleatorio con cinco niveles de peso

porcentual del algodón y cinco replicas, obteniendo los resultados que se presentan en

la siguiente tabla:
Resistencia a la tensión observada

Peso porcentual del 1 2 3 4 5


algodón

15 7 7 15 11 9

20 12 17 12 18 18

25 14 18 18 19 19

30 19 25 22 19 23

35 7 10 11 15 11

Tabla 1.9

Realizar análisis de varianza así como también considerar la prueba de Dunnett

Datos

Peso porcentual A 5

Resistencia B 5
N N 25

Grados de A-1 4
libertad

Grados de N-a 20
libertad (error)

Tabla 2.0
Cálculo de la suma de cuadrados

Resistencia a la tensión observada Totales Promedios


Yi

Peso 1 2 3 4 5

porcentual

del algodón

15 7 7 15 11 9 49 9,8

20 12 17 12 18 18 77 15,4

25 14 18 18 19 19 88 17,6

30 19 25 22 19 23 108 21,6

35 7 10 11 15 11 54 10,8

Y (sumatoria 59 77 78 82 80 376 15,04

de peso

porc.

Modos de 11,8 15,4 15,6 16,4 16 Y.. Ῡ

pesos parc

(promedio)

Tabla 2.1

Cálculo de la suma de cuadrados totales

∑ ∑
Suma de cuadrados de tratamientos

Cálculo de la Suma de cuadrados del error

SCe= SCt – Sctrat =161,2

Cálculo Cuadrados medios de tratamientos

CMtrat= = 475,76/ 4 = 118, 94

Cálculo de cuadrados medios de error

CMerror = (MSe) = 161,2/ 20 = 8,06

Relación de los cuadrados medios

F0 =
14,75
Tabla de Dunett. Valores críticos para la prueba de Dunnett

a – 1 = Número de medias de tratamiento (sin contar el control)


F. grados 1 2 3 4 5 6 7 8 9
de
libertad

5 2,57 3.03 3,29 3,48 3,62 3,73 3,82 3,90 3,97


6 2.45 2,86 3,10 3,26 3,39 3,49 3,57 3,64 3,71
7 2.36 2,75 2,97 3,12 3,24 3,33 3,41 3,47 3,53
8 2.31 2,67 2,88 3,02 3,13 3,22 3,29 3,35 3,41
9 2.26 2,61 2,81 2,95 3,05 3,14 3,20 3,26 3,32
10 2.23 2,57 2,76 2,89 2,99 3,07 3,14 3,19 3,24
11 2.20 2,53 2,72 2,84 2,94 3,02 3,08 3,14 3,19
12 2.18 2,50 2,68 2,81 2,90 2,98 3,04 3,09 3,14
13 2.16 2,48 2,65 2,78 2,87 2,94 3,00 3,06 3,10
14 2.14 2,46 2,63 2,75 2,84 2,91 2,97 3,02 3,07
15 2.13 2,44 2,61 2,73 2,82 2,89 2,95 3,00 3,04
16 2.12 2,42 2,59 2,71 2,80 2,87 2,92 2,97 3,02
17 2.11 2,41 2,58 2,69 2,78 2,85 2,90 2,95 3,00
18 2.10 2,40 2,56 2,68 2,76 2,83 2,89 2,94 2,98
19 2.09 2,39 2,55 2,66 2,75 2,81 2,87 2,92 2,96
20 2.09 2,38 2,54 2,65 2,73 2,80 2,86 2,90 2,95
24 2.06 2,35 2,51 2,61 2,70 2,76 2,81 2,86 2,90
30 2.04 2,32 2,47 2,58 2,66 2,72 2,77 2,82 2,86
40 2.02 2,29 2,44 2,54 2,62 2,68 2,73 2,77 2,81
60 2.00 2,27 2,41 2,51 2,58 2,64 2,69 2,73 2,77
120 1.98 2,24 2,38 2,47 2,55 2,60 2,65 2,69 2,73
∞ 1.96 2,21 2,35 2,44 2,51 2,57 2,61 2,65 2,69
Tabla 2.2

Fa TDunnet(a; p,e g.L.) 2,65, valor obtenido en la tabla

Da= TDunnet(a; p,e g.L.) √ () Da= 4,767


2,65 √
Tabla de ANOVA

Fuente de Grados Suma de Cuadrados Fc Fa

variación de cuadrados medios

libertad

Peso 4 475,76 118,94 14,757 2,65

porcentual

Error 20 161,2 8,06 8,06

Total 24 636,96

Tabla 2.3

Comparaciones entre medias de pares de tratamientos

Comparación Dunnett

Ῡ1 - Ῡ5 1 <4,76 Estadísticamente

iguales

Ῡ2- Ῡ5 4,6 <4,76 Estadísticamente

iguales

Ῡ3 - Ῡ5 6,8 >4,76 Estadísticamente

diferente

Ῡ4 - Ῡ5 10,8 >4,76 Estadísticamente

diferente

Tabla 2,4

Conclusión:

Es de resaltar que solo las diferencias de Ῡ3-Ῡ5 y Ῡ4 - Ῡ5 indican diferencia

significativa. Por consiguiente se indica que µ3 ≠ µ5 y µ4≠ µ5


PRUEBA DE TUKEY

La prueba de Tukey fue presentada en el año 1949 por John.W. Tukey, la cual

permite discernir si los resultados obtenidos son significativamente diferentes o no. Se

le conoce también como la prueba de diferencia honestamente significativa de Tukey,

en consecuencia, es una prueba que tiene como fin comparar las medias individuales

provenientes de un análisis de varianza de varias muestras sometidas a tratamientos

distintos

Según Gutiérrez Humberto, (2008), en su libro Análisis y diseño de experimentos,

describe la prueba de Tukey “Un método más conservador para comparar pares de

medias de tratamientos es el método de Tukey, el cual consiste en comparar las

diferencias entre medias muestrales con el valor crítico” dado por:

Ta= qa (k, n-k) √ (1.3)

Donde CMe es el cuadrado medio del error, n es el número de observaciones por

tratamiento, k es el número de tratamientos, N – k es igual a los grados de libertad para

el error, a es el nivel de significancia prefijado y el estadístico qa(k, N – k) son puntos

porcentuales de la distribución del rango estudentizado, que se obtienen de la

correspondiente tabla de Tukey.


De igual forma, la prueba de tukey trabaja con un error α muy cercano al declarado

por el experimentador. Igualmente, en esta prueba se determina las diferencias entre

las medias de las muestras y se comparan con una denominada “Diferencia

honestamente significativa” (HSD), que se calcula mediante la siguiente fórmula:

HSD= qa
(1.4)

Dónde:

HSD: Diferencia honestamente significativa

qa, es el valor obtenido en la Tabla Tukey.

MSe: Cuadrado medio de error (media cuadrática dentro de los grupos)

n: tamaño de la muestra en los grupos.

Aplicación de la prueba de Tukey

1. La prueba de Tukey es utilizada general y conjuntamente con ANOVA, además se

usa en experimentos que implican un número elevado de comparaciones.

2. Es de fácil cálculo puesto que se define un solo comparador, resultante del producto

del error estándar de la media por el valor tabular en la tabla de Tukey usando como

numerador el número de tratamientos y como denominador los grados de libertad del

error Se conoce como Tukey-Kramer cuando las muestras no tienen el mismo número

de datos
3. Dado que el análisis de varianza acuse un efecto significativo, la prueba de Tukey

provee un nivel de significancia global de α, cuando los tamaños de las muestras son

iguales y de α, a lo sumo a cuando no son iguales.

4. Se basa en la construcción de intervalos de confianza de las diferencias por pares. Si

estos intervalos incluyen al 0, entonces no se rechaza la hipótesis nula.

El criterio de decisión para el resultado de este método es el siguiente:

1. Si ≤ DHS, Se acepta Ho
2. Si > DHS, Se rechaza Ho

El procedimiento es el siguiente:

Se debe obtener los valores absolutos de las diferencias entre los pares de tratamientos
Ῡt - Ῡi

Comparar Ῡt - Ῡi vs el valor de DHS(α)

Si Ῡt - Ῡi > DHS(α) se declara significativa la diferencia observada entre las medias de


los tratamientos Ῡt - Ῡi

Ejemplo numérico 2

Un ingeniero agrónomo de desarrollo de productos le interesa determinar si el peso

porcentual del algodón en una fibra sintética afecta la resistencia a la tensión, para esto

se ha llevado a cabo un experimento completamente aleatorio con cinco niveles de


peso porcentual del algodón y cinco replicas, obteniendo los resultados que se

presentan en la siguiente tabla:

Experimento:

Resistencia a la tensión observada

Peso 1 2 3 4 5

porcentual

del

algodón

15 7 7 15 11 9

20 12 17 12 18 18

25 14 18 18 19 19

30 19 25 22 19 23

35 7 10 11 15 11

Tabla 2,5

Realizar análisis de varianza, además considere la prueba de Tukey.


Datos:
Peso A 5
porcentual

Resistencia B 5
N N 25

Grados de A-1 4
libertad

Grados de N-a 20
libertad (error)

Tabla 2,6
Cálculo de la suma de cuadrados

Resistencia a la tensión observada Totales Promedios


Yi

Peso 1 2 3 4 5
porcentual

del algodón

15 7 7 15 11 9 49 9,8

20 12 17 12 18 18 77 15,4

25 14 18 18 19 19 88 17,6

30 19 25 22 19 23 108 21,6

35 7 10 11 15 11 54 10,8

Y 59 77 78 82 80 376 15,04
(sumatoria

de pesos

parc.
Modos de 11,8 15,4 15,6 16,4 16 Y.. Ῡ
pesos parc

(promedio)

Tabla 2,7

Cálculo de la suma de cuadrados totales

∑ ∑
Suma de cuadrados de tratamientos

Cálculo de la suma de cuadrados del error

SCe= SCt – Sctrat =161,2

Paso 3 Cálculo Cuadrados medios de tratamientos

CMtrat= = 475,76/ 4 = 118, 94

Calculo de cuadrados medios de error

CMerror = (MSe) = 161,2/ 20 = 8,06

Relación de los cuadrados medios

F0 =
14,75
Tabla de ANOVA

Fuente de Grados Suma de Cuadrados Fc Fa

variación de cuadrados medios

libertad

Peso 4 475,76 118,94 14,757 4,24

porcentual

Error 20 161,2 8,06 8,06

Total 24 636,96

Tabla 2.8

Valor obtenido de la tabla de distribución T Student, Tukey ( )


= es 4,24.

DHS= qa DHS= qa DHS= 4,24 X 1,26 = 5,34


√ √
( )
Puntos porcentuales del estadístico del rango studentizado Tukey Tabla 2.9

F. 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

1 18,1 26,7 32,8 37,2 40,5 43,1 45,4 47,3 49,1 50,6 51,9 53,2 54,3 55,4 56,3 57,2 58,0 58,8 59,5

2 6,09 8,28 9,80 10,89 11,73 12,43 13,03 13,54 13,99 14,39 14,7 15,08 15,38 15,65 15,91 16,14 16,36 16,57 16,77
5
3 4,50 5,88 6,83 7,51 8,04 8,47 8,85 9,18 9,46 9,72 9,95 10,16 10,35 10,52 10,69 10,84 10,98 11,12 11,24
4 3,93 5,00 5,76 6,31 6,73 7,06 7,35 7,60 7,83 8,03 8,21 8,37 8,52 8,67 8,80 8,92 9,03 9,14 9,24
5 3,64 4,60 5,22 5,67 6,03 6,33 6,58 6,80 6,99 7,17 7,32 7,47 7,60 7,72 7,83 7,93 8,03 8,12 8,21
6 3,46 4,34 4,90 5,31 5,63 5,89 6,12 6,32 6,49 6,65 6,79 6,92 7,04 7,14 7,24 7,34 7,43 7,51 7,59
7 3,34 4,16 4,68 5,06 5,35 5,59 5,80 5,99 6,15 6,29 6,42 6,54 6,65 6,75 6,84 6,93 7,01 7,08 7,16
8 3,26 4,04 4,53 4,89 5,17 5,40 5,60 5,77 5,92 6,05 6,18 6,29 6,39 6,48 6,57 6,65 6,73 6,80 6,87
9 3,20 3,95 4,42 4,76 5,02 5,24 5,43 5,60 5,74 5,87 5,98 6,09 6,19 6,28 6,36 6,44 6,51 6,58 6,65
10 3,15 3,88 4,33 4,66 4,91 5,12 5,30 5,46 5,60 5,72 5,83 5,93 6,03 6,12 6,20 6,27 6,34 6,41 6,47
11 3,11 3,82 4,26 4,58 4,82 5,03 5,20 5,35 5,49 5,61 5,71 5,81 5,90 5,98 6,06 6,14 6,20 6,27 6,33
12 3,08 3,77 4,20 4,51 4,75 4,95 5,12 5,27 5,40 5,51 5,61 5,71 5,80 5,88 5,95 6,02 6,09 6,15 6,21
13 3,06 3,73 4,15 4,46 4,69 4,88 5,05 5,19 5,32 5,43 5,53 5,63 5,71 5,79 5,86 5,93 6,00 6,06 6,11
14 3,03 3,70 4,11 4,41 4,64 4,83 4,99 5,13 5,25 5,36 5,46 5,56 5,64 5,72 5,79 5,86 5,92 5,98 6,03
15 3,01 3,67 4,08 4,37 4,59 4,78 4,94 5,08 5,20 5,31 5,40 5,49 5,57 5,65 5,72 5,79 5,85 5,91 5,96
16 3,00 3,65 4,05 4,34 4,56 4,74 4,90 5,03 5,15 5,26 5,35 5,44 5,52 5,59 5,66 5,73 5,79 5,84 5,90
17 2,98 3,62 4,02 4,31 4,52 4,70 4,86 4,99 5,11 5,21 5,31 5,39 5,47 5,55 5,61 5,68 5,74 5,79 5,84
18 2,97 3,61 4,00 4,28 4,49 4,67 4,83 4,96 5,07 5,17 5,27 5,35 5,43 5,50 5,57 5,63 5,69 5,74 5,79
19 2,96 3,59 3,98 4,26 4,47 4,64 4,79 4,92 5,04 5,14 5,23 5,32 5,39 5,46 5,53 5,59 5,65 5,70 5,75
20 2,95 3,58 3,96 4,24 4,45 4,62 4,77 4,90 5,01 5,11 5,20 5,28 5,36 5,43 5,50 5,56 5,61 5,66 5,71
24 2,92 3,53 3,90 4,17 4,37 4,54 4,68 4,81 4,92 5,01 5,10 5,18 5,25 5,32 5,38 5,44 5,50 5,55 5,59
30 2,89 3,48 3,84 4,11 4,30 4,46 4,60 4,72 4,83 4,92 5,00 5,08 5,15 5,21 5,27 5,33 5,38 5,43 5,48
40 2,86 3,44 3,79 4,04 4,23 4,39 4,52 4,63 4,74 4,82 4,90 4,98 5,05 5,11 5,17 5,22 5,27 5,32 5,36
60 2,83 3,40 3,74 3,98 4,16 4,31 4,44 4,55 4,65 4,73 4,81 4,88 4,94 5,00 5,06 5,11 5,15 5,20 5,24
120 2,80 3,36 3,69 3,92 4,10 4,24 4,36 4,47 4,56 4,64 4,71 4,78 4,84 4,90 4,95 5,00 5,04 5,09 5,13
∞ 2,77 3,32 3,63 3,86 4,03 4,17 4,29 4,39 4,47 4,55 4,62 4,68 4,74 4,80 4,84 4,98 4,93 4,97 5,01
Comparaciones entre medias de pares de tratamientos

Ῡ Ῡ Ῡ Ῡ Ῡ

9,8 15,4 17,6 21,6 10,8

Tabla 3.0

Comparaciones entre medias de pares de tratamientos

Comparación Tukey
Ῡ1 - Ῡ2 5,6 >5,34 Estadísticamente
diferente
Ῡ1 - Ῡ3 7,8 >5,34 Estadísticamente
diferente
Ῡ1 - Ῡ4 11,8 >5,34 Estadísticamente
diferente
Ῡ1 - Ῡ5 1,0 <5,34 Estadísticamente
iguales
Ῡ2 - Ῡ3 2,2 <5,34 Estadísticamente
iguales
Ῡ2 - Ῡ4 6,2 >5,34 Estadísticamente
diferente
Ῡ2 - Ῡ5 4,6 <5,34 Estadísticamente
iguales
Ῡ3 - Ῡ4 4,0 <5,34 Estadísticamente
iguales
Ῡ3 - Ῡ5 6,8 >5,34 Estadísticamente
diferente
Ῡ4 - Ῡ5 10,8 >5,34 Estadísticamente
diferente
Tabla 3.1

Conclusión: Los valores color rosa indican pares de medias que son significativamente
diferentes, suele ser útil trazar una gráfica donde se subraya a los pares de media que
no difieren significativamente, de igual forma se observa que las medias de los
tratamientos forman tres grupos: µ1 y µ1 y µ2 y µ3 µ4.
Referencias Bibliográficas

1. Gutiérrez, H, De La Vara, R. Análisis y diseño de experimentos. Segunda edición

Ciudad de México, México. McGRAW-HILL/INTERAMERICANA EDITORES, S.A

2008.

2. Montgomery, D. Diseño y análisis de experimentos. Segunda edición Ciudad de

México, México. EDITORIAL LIMUSA, S.A 2004.

También podría gustarte