Está en la página 1de 32

Estadística Aplicada III Ivan Mauricio Bermúdez Vera

Estadístico, M.Sc. en Ingeniería.


Diseño de Experimentos mauricio.bermudez@correounivalle.edu.co
Diseño Completamente Aleatorizado
(DCA)
Diseño Completamente Aleatorizado

Características:

1. Se investiga el efecto de un factor con a niveles (o a tratamientos) sobre


una variable respuesta.
2. Las unidades experimentales son homogéneas.
3. Los factores perturbadores han sido satisfactoriamente controlados en el
experimento.
4. Se realizó un proceso de aleatorización en la asignación de unidades
experimentales.

“Modelo de Análisis más Simple y Común”


Ejemplo DCA
En una estación experimental se realizó un experimento para estudiar los
efectos comparativos de diferentes tipos de fertilizantes sobre la altura de
una variedad de plantas.

Datos del experimento de la altura de plantas (en cm)


Tipo de Fertilizante Planta
Total Promedio
aplicado 1 2 3 4 5
Sin Fertilizante 7 7 15 11 9 49 9,8
N 12 17 12 18 18 77 15,4 ¿Son todas las
NP 14 18 18 19 19 88 17,6 medias iguales?
NPK 19 25 22 19 23 108 21,6
NK 7 10 11 15 11 54 10,8
Total 376 15,04

Hipótesis de Investigación: Existe algún tipo de fertilizante que mejora


el crecimiento de las plantas.
Una manera de representar el anterior
conjunto de datos experimentales, es
mediante el modelo de medias:

yij = i + ij i = 1, 2, ...a

𝜇Ƹ 4 j = 1, 2, ...n

𝜇Ƹ 3
𝜇Ƹ 2 yij =  +  i + ij i = 1, 2, ...a


𝝁 j = 1, 2, ...n

Variabilidad “dentro” del


𝜇Ƹ 5
𝜇Ƹ 1 tratamiento (Error)

Variabilidad “entre” los


tratamiento (Factor)
Modelo de Análisis:
yij =  +  i + ij i = 1, 2, ...a ; j = 1, 2, ...n

donde:
yij = Valor aleatorio que toma la variable respuesta en
la j-exima replica del i-eximo tratamiento.
 = Parámetro de centralidad o efecto medio general.
 i = Efecto debido al i-ésimo tratamiento.
 ij = Efecto debido al error experimental.

Hipótesis de estudio:
Lo anterior implica que es equivalente
probar que las medias de los tratamientos Ho :  1 =  2 =  3 = ...... =  a =0
son iguales a probar que el efecto de los
tratamientos es igual a cero, bajo H0.
Ha :  i  0 para algún i
ANOVA - Tabla Resumen
Tabla de análisis de varianza para el modelo con un solo factor
Fuente de Grados de Suma de Cuadrado
F0
Variabilidad Libertad Cuadrados Medio
Entre los 1 a 2 y..2
a −1 SCTrat =  yi. − CM Trat =
SCTrat
F0 =
CM Trat
Tratamientos n i =1 N a −1 CM Error

Error (Dentro de los SCError


N −a SCError = SCT − SCTrat CM Error =
Tratamientos) N −a
a n
y..2
Total N −1 SCT =  y − 2
ij
i =1 j =1 N

ˆTrat
2 Rechazar Ho (Los efectos son diferentes): En la
F0 = 2 →  medida en que la variabilidad debida al
ˆ Error tratamiento sea mayor que la variabilidad del
Ho :  1 =  2 =  3 = ...... =  a =0
error.
Ha :  i  0 para algún i
ˆTrat
2
Aceptar Ho (Los efectos son iguales): la
F0 = 2 → (0;1) variabilidad de los tratamientos es muy similar a
ˆ Error la del error o inclusive menor.
Diseños Desbalanceados
En algunas ocasiones no es posible mantener constante el tamaño de muestra
para cada tratamiento, por ende las expresiones de calculo cambian
ligeramente.

Tabla de análisis de varianza para el modelo con un solo factor


Fuente de Grados de Suma de Cuadrado
F0
Variabilidad Libertad Cuadrados Medio
Entre los a
 yi2.  y..2
Tratamientos
a −1 SCTrat =   − CM Trat F0 =
CM Trat
i =1  ni  N CM Error

Error (Dentro de los N −a SCError = SCT − SCTrat CM Error


Tratamientos)
a
y..2
n

Total N −1 SCT =  y − 2
ij
i =1 j =1 N
Retomando el ejemplo de la altura de las plantas:
Datos del experimento de la altura de plantas (en cm)
Planta
Tratamiento Promedio
1 2 3 4 5
Sin Fertilizante 7 7 15 11 9 9.8
N 12 17 12 18 18 15.4
NP 14 18 18 19 19 17.6
NPK 19 25 22 19 23 21.6
NK 7 10 11 15 11 10.8

Decisión: al menos uno de los tratamientos


presenta un efecto diferente sobre la altura
de las plantas.
¿Cuál es el tratamiento que genera la diferencia?

• El ANOVA indica si existe o no existe diferencias entre las medias de


los tratamientos, lo que no hace es referenciar cuales tratamientos
difieren o presentan mejores resultados.

• Para ello es necesario realizar un análisis complementario, que


corresponde a las Pruebas de Comparación Múltiple – Postanova.
¿Cuál es el tratamiento que genera la diferencia?

Comparación entre pares de medias de tratamientos:


•Prueba de Tukey
• Prueba de la Diferencia Significativa Mínima (LSD) de Fisher
•Prueba de Newman – Keuls
• Prueba del Rango Múltiple de Duncan
• Prueba de Dunnet Prueba de Tukey
Prueba conservadora: Acepta menos
• Prueba de Bonferroni diferencias de las que realmente existen
(falsos no rechazos – Falsos negativos).
• Prueba de Sidák
Prueba de Fisher
Prueba liberal: Acepta diferencias que no
lo son (falsos rechazos – Falsos positivos).
Pruebas de Comparación
Prueba de la Diferencia Mínima Significativa (LSD o Fisher):
El número de comparaciones
• Este procedimiento fue sugerido por Fisher (1935) el cual consiste posibles para k grupos es:
en realizar pruebas de hipótesis por parejas basada en la
distribución t-student. k ( k − 1)
• El método se basa en comparar todas las diferencias en valor
absoluto de las medias de los tratamientos y confrontar dichas 2
diferencias contra un estadístico de prueba.

Contraste de Hipótesis: Estadístico de Prueba: Regla de decisión:


H 0 : i . =  j . 1 1 Si yi• − y j •  LSD
LSD = t /2 ; v CM Error  + 
H1 : i .   j . n n  
 i j  Se rechaza H 0

t /2 ; v : “Valor crítico de la distribución t-student”.


Grados de libertad del error
Prueba de la Diferencia Mínima Significativa (LSD o Fisher):

Procedimiento
• Paso 1: Acomodar y enumerar las medias muestrales en forma descendente.

• Paso 2: Tabular las diferencias en valor absoluto de


los pares de medias
yi• − y j •
La más grande con la más pequeña, luego con la
siguiente más pequeña, hasta terminar y repetir el
proceso en orden descendente.

• Paso 3: Calcular el estadístico de prueba y comparar las


diferencias encontradas en el paso anterior con el estadístico LSD.

Importante:
1 1
LSD = t /2 ; v CM Error  +  𝛼 es la probabilidad de encontrar al menos
n n 
 i j 
un error tipo I (falsos rechazos) para cada
una de las comparaciones.
Prueba de la Diferencia Mínima Significativa (LSD o Fisher):

Inconvenientes:
Un problema que presenta este procedimiento, es que la utilización reiterada del mismo (𝛼)
conduce a que la probabilidad de falsos rechazos de la hipótesis nula (𝛼) sea bastante alta,
aunque no existan diferencias reales.

Ejemplo:
Si se cuenta con 10 niveles de un factor (a=10), se tendrían 45 (10C2) posibles parejas de
comparaciones.

Si se toma 𝛼 = 0.05, entonces el número En efecto, bajo la hipótesis nula:


esperado de falsos rechazos será:
𝑃 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛𝑎 𝑐𝑜𝑚𝑝𝑎𝑟𝑎𝑐𝑖ó𝑛
= 1 − 𝑃 𝐴𝑐𝑒𝑝𝑡𝑎𝑟 𝑡𝑜𝑑𝑎𝑠
0.05x45 = 2.25. = 1 − 1 − 0.05 45
≅ 0.90
Prueba de la Diferencia Mínima Significativa (LSD o Fisher):

Resultados datos Ejemplo:

1 1
LSD = t0.025;20 8.06  +  = 3.75
5 5
Información de agrupación empleando el método de Fisher
Fertilizante n Media Agrupación
Contraste de Hipótesis: NPK 5 21,6 A
H 0 : i . =  j . NP 5 17,6 B
N 5 15,4 B
H1 : i .   j . NK 5 10,8 C
Sin Fertilizante 5 9,80 C

Regla de decisión:

Si yi• − y j •  LSD  Se rechaza H 0


Pruebas de Comparación

Prueba de Tukey: Diferencia Honestamente Significativa

• Tukey (1953) desarrolló un procedimiento para las comparaciones entre pares de todas
las medias de tratamiento.
• El método se basa en comparar todas las diferencias en valor absoluto de las medias de
los tratamientos y confrontar dichas diferencias contra un estadístico de prueba.

Contraste de Hipótesis: Estadístico de Prueba: Regla de decisión:


H 0 : i . =  j . Si yi• − y j •  DHS
CM Error
H1 : i .   j . DHS = q (k ;v )
n  Se rechaza H 0

q (k ; v ) : “Valor crítico de la distribución del rango estudentizado”.


Prueba de Tukey (DHS)
Procedimiento
• Paso 1: Acomodar y enumerar las medias muestrales en forma descendente.

• Paso 2: Tabular las diferencias en valor absoluto de


los pares de medias
yi• − y j •
La más grande con la más pequeña, luego con la
siguiente más pequeña, hasta terminar y repetir el
proceso en orden descendente.

• Paso 3: Calcular el estadístico de prueba y comparar las diferencias


encontradas en el paso anterior con el estadístico DHS.

CM Error Importante:
DHS = q (k ;v )
n 𝛼 es la probabilidad de encontrar al menos un
error tipo I (falsos rechazos) para cada una de
las comparaciones.
Prueba de Tukey (DHS):

Resultados datos Ejemplo: Información de agrupación empleando el método de Tukey


Fertilizante n Media Agrupación
8.06
𝐷𝐻𝑆0.05 = 𝑞0.05(5;20) = 5.38 NPK 5 21,6 A
5
4.24 NP 5 17,6 A B
N 5 15,4 B C
NK 5 10,8 C D
• Contraste de Hipótesis: Sin Fertilizante 5 9,80 D

H 0 : i . =  j .
H1 : i .   j . Información de agrupación empleando el método de Fisher
Fertilizante n Media Agrupación
NPK 5 21,6 A
• Regla de decisión: NP 5 17,6 B
N 5 15,4 B
Si yi• − y j •  DHS NK 5 10,8 C
Sin Fertilizante 5 9,80 C
 Se rechaza H 0
En resumen:
Las técnicas englobadas bajo la denominación de
Análisis de Varianza (ANOVA) dan respuesta a la
necesidad de comparar más de dos grupos o
tratamientos.

#Ajuste modelo DCA:


>mod.1 <- lm(Altura~Nutriente, data)
>anova(mod.1)

#Pruebas de comparación múltiple: Cualquier discrepancia entre los datos y una o


>leastsquare1 <- lsmeans(mod.1,~Nutriente) más de estas suposiciones afecta las estimaciones
>pairs(leastsquare1, adjust="Tukey") de las medias de tratamiento y las pruebas de
>multcomp::cld(leastsquare1, significancia del ANOVA.
alpha=.05,
Letters=letters)

¿Que pruebas podemos utilizar bajo el


incumplimiento de los supuestos?
Pruebas alternas:
1. No se cumple el supuesto de normalidad y 3. No se cumple ninguno de los dos.
si el de homogeneidad de varianzas.
#Prueba No Paramétrica de Kruskal-Wallis:
#Pruebas de permutación o aleatorización
>kruskal.test(Altura~Nutriente, data)
#Pruebas de comparación múltiple: #Prueba de independencia:
>kwAllPairsNemenyiTest(x=data$Altura, >coin::independence_test(Altura ~ Nutriente, data)
g=data$Nutriente,
dist="Tukey") #Prueba de comparación múltiple:
#Test de Permutaciones (entre que tratamientos
existe diferencias)
2. Se cumple el supuesto de normalidad y
no el de homogeneidad de varianzas >PT<-rcompanion::pairwisePermutationTest(
Altura~Nutriente,
#Estimación mediante Mínimos Cuadrados data,
Generalizados (asume normalidad). method="fdr")
>mod_heterog<-nlme::gls(Altura~1+Nutriente,
weight=varComb(varIdent(form=~1|Nutriente)), #Presentando las diferecnias en letras a partir de
data) los p.adjust:
>anova(mod_heterog) >cldList(p.adjust ~ Comparison,
data=PT,
#Prueba de comparación: threshold=0.05)
>leastsquare1 <- lsmeans(mod_heterog,~Nutriente)
pairs(leastsquare1, adjust="tukey")
cld(leastsquare1, alpha=0.05, Letters=letters)
Edgington (1995) define las pruebas de aleatorización como “procedimientos para
Pruebas de Aleatorización determinar la significación estadística directamente desde los datos experimentales
sin recurrir a las tablas estadísticas”.

Ho :  1 =  2 =  3 = ...... =  a =0 La diferencia media es independiente de la asignación de tratamiento.


Ha :  i  0 para algún i La diferencia media depende de la asignación de tratamiento.

1. Obtener distribución de referencia muestral 2. Seleccionamos percentil =Punto Critico vs 𝐹𝑖𝑛𝑖𝑐𝑖𝑎𝑙


(a partir de los mismos datos).
σ 𝐹𝑎𝑙𝑒𝑎𝑡𝑟𝑜𝑖𝑧𝑎𝑑𝑜 > 𝐹𝑖𝑛𝑖𝑐𝑖𝑎𝑙
Permutar los valores entre los tratamientos. 3. P-valor = vs α
# 𝑑𝑒 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑧𝑎𝑐𝑖𝑜𝑛𝑒𝑠
T1 T2
𝑦11 𝑦21
𝑦12 𝑦22 ANOVA Fo
𝑦13 𝑦23
ANOVA Fo1
x cada cambio Fo2
.
. Distribución
.
Fok
Diseño de Bloques al Azar
(DBCA)
Diseño de Bloques (DBCA)
• En cualquier experimento, la variabilidad
✓ Nuestro objetivo es tener comparaciones precisas
proveniente de un factor de ruido (perturbador)
entre los tratamientos bajo estudio.
puede afectar los resultados.
✓ Usar bloques estratifica a las unidades
• Un factor de ruido es un factor que
experimentales (u.e.) en grupos homogéneos.
probablemente tiene un efecto en la respuesta
Una buena elección del criterio de bloqueo
pero que no nos interesa estudiar.
resulta en menor variación entre las u.e. dentro
de los bloques comparada con la variación entre
Factores como mediciones realizadas…
u.e. de diferentes bloques.
- por diferentes personas
- en diferentes equipos
✓ Un método para controlar este efecto
- en distintos laboratorios
corresponde a un Diseño de Bloques Completos
- en diferentes días…
Aleatorizados (DBCA), donde la idea general
consiste en evaluar cada tratamiento del
son ejemplos de variables externas a los tratamientos
experimento en cada uno de los niveles del factor
que pueden incrementar la variación entre las
bloque.
observaciones de la variable respuesta.
Diseño de Bloques (DBCA)
Ejemplo:
Se desea comparar el efecto la concentración de ácido perclórico en solución acuosa, a tres
niveles diferentes o tratamientos (0.1M, 0.5M y 1.0M) sobre la intensidad de fluorescencia de
la maquina (ampliamente utilizada como patrón primario en espectrometría de fluorescencia).

• Suponga que se realizan cuatro medidas


repetidas de la intensidad para cada uno de los
cuatro tratamientos, es decir, en cada disolución
de ácido perclórico, pero no se pueden realizar
las 12 mediciones en el mismo día y se tuvieran
que obtener en cuatro días consecutivos.

Si se tuviese la impresión que existe diferencia entre los niveles de acido 0.1M y 0.5M, no seria posible
decir si esta diferencia es autentica o si está provocada por el efecto de utilizar los dos tratamientos en
pares de días diferentes.

Bloquear por el factor externo (día):


Factor externo controlado que
influye en la característica medida.
Estructura de datos - diseño de bloques:

Bloque 1 Bloque 2 Bloque 3 Bloque 4 Bloque b


y11 y12 y13 y14 y1b
y21 y22 y23 y24 y2 b
y31 y32 ...
y33 y34 y3b
y41 y42 y43 y44 y4 b

ya1 ya 2 ya 3 ya 4 yab
Modelo de análisis:
i = 1, 2,..., a
yij =  +  i +  j +  ij 
 j = 1, 2,..., b
Efecto del nivel Efecto del nivel
i-esimo del factor j-esimo del factor bloque

donde:
Se supone que los efectos de tratamientos y
yij = Valor aleatorio que toma la variable respuesta
bloques son aditivos. La aditividad significa que no
en el i-eximo tratamiento del j-eximo bloque hay interacción entre tratamientos y bloques.
 = Parámetro de centralidad o efecto medio general.
 i = Efecto debido al i-ésimo tratamiento. Planteamiento de Hipótesis:
 j = Efecto debido al j-ésimo bloque. Ho :  1 =  2 =  3 = ...... =  a =0
 ij = Efecto debido al error experimental. Ha :  i  0 para algún i
Tabla ANOVA
Tabla de análisis de varianza para el modelo de un solo factor con bloques
Fuente de Grados de Suma de Cuadrado
F0
Variabilidad Libertad Cuadrados Medio

a −1 SCTrat CM Trat
Tratamientos SCTratamientos CM Trat = F0 =
a −1 CM Error
SCBloque CM Bloque
Bloques b −1 SCBloques CM Bloque = F0 =
b −1 CM Error
SCError
( a − 1)( b − 1) SCError CM Error =
Error ( a − 1)( b − 1)

Total N −1 SCTotal

• Como la variación entre bloques es conocida (o sospechada), NO se pregunta en un ANOVA si hay


diferencias significativas entre los bloques: YA SE SUPONE QUE LAS HAY.
• La característica importante en un diseño de bloques es que la variación entre los bloques es removida
del término error experimental en un ANOVA.
Eficiencia de un DBCA frente a un DCA
Ejemplo de comparación de la Eficiencia Relativa (ER) de los diseños Bloque al Azar y
Completamente Aleatorizado.

En una estación se realizó un experimento para estudiar los efectos comparativos de


diferentes tipos de fertilizantes sobre la altura de una variedad de plantas en cinco
lugares diferentes.

Datos del experimento de la altura de plantas (en cm)


Tipo de Fertilizante Lugares
Promedio
aplicado 1 2 3 4 5
Sin Fertilizante 7 7 15 11 9 9,8
N 12 17 12 18 18 15,4
NP 14 18 18 19 19 17,6
NPK 19 25 22 19 23 21,6
NK 7 10 11 15 11 10,8
Promedio 11,8 15,4 15,6 16,4 16 15,04
Eficiencia de un DBCA frente a un DCA
El principal análisis a considerar es la respuesta de la altura de las plantas a distintos
tipos de fertilizantes.

1. Los cinco lugares (de la estación) 2. Los cinco lugares (de la estación) son
son considerados como réplicas considerados como bloques en vez de
réplicas.
Diseño: ANOVA de una vía. Diseño: ANOVA en bloques.

yij =  +  i +  ij yij =  +  i +  j +  ij
Eficiencia de un DBCA frente a un DCA
La ganancia en eficacia que se obtiene de usar un diseño de bloques al azar (DBCA) en
vez de un diseño completamente aleatorizado (DCA) se calcula:

 CMErrorDCA  ( glDBCA + 1)( glDCA + 3) Si EF =1 → La eficiencia del DBCA y DCA es la misma


EF =   Si EF > 1 → El DBCA es más eficiente
 CMErrorDBCA  ( gl DBCA + 3 )( gl DCA + 1) Si EF < 1 → El DCA es más eficiente

 8, 06  (16 + 1)( 20 + 3)
EF =   = 4.97
 1,59  (16 + 3)( 20 + 1)

Lo anterior significa que para obtener la misma precisión, se necesita tomar


aproximadamente 5 veces más muestras en un diseño completamente al azar que en un
diseño de bloques al azar. Resultando conveniente incluir el lugar como bloque y no como
réplicas dentro del diseño experimental.

También podría gustarte