Está en la página 1de 30

DISEÑOS

EXPERIMENTALES
Contenido
SUMARIO OBJETIVOS

 La investigación y  Determinar cuáles son las variables x que tienen


mayor influencia sobre la respuesta y.
el diseño de  Determinar el mejor valor de las variables x que
experimentos influyen en la variable y, de modo que tenga en lo
posible un valor cercano al valor deseado..
 Principios básicos  Determinar el mejor valor de las variables x que
de experimentación influyen en la variable y, de modo que la variabilidad
de esta sea lo más pequeño posible.
 Determinar de tal manera que se minimicen los
efectos de las variables exógenas que no son
controladas.

2
INTRODUCCIÓN
Si entendemos a la estadística como ciencia que nos
proporciona métodos y técnicas para recolectar, procesar,
presentar, analizar y sacar conclusiones de un conjunto de
datos (materia prima).

Un investigador cuenta con las principales fuentes de


datos:
- Del almacenamiento y archivamiento rutinario que
hacen las instituciones de sus actividades
- De las encuestas con fines específicos, y
- De los diseños experimentales, con propósito de
investigación.

3
Los datos, tanto los rutinarios como los de las encuestas
tienen la característica de que no pueden ser controlados
por el investigador, se les tiene que aceptar tal como son,
con el propósito de mejorar la calidad de los datos se ha
introducido una tercera fuente que es la de los diseños
experimentales.

En general, los experimentos se usan para estudiar el


desempeño de procesos y sistemas.
1.1. El diseño de un experimental
En resumen, el diseño de un experimento consiste, en la secuencia
completa y planificada de pasos previstos de antemano para asegurar
que se tomaran los datos apropiados con el fin de realizar un análisis
objetivo de un problema determinado y que conducirán a conclusiones
válidas.
Objetivos
 Determinar cuáles de las variables independientes (factores) tienen mayor
influencia en la variable respuesta.
 Determinar el mejor valor de las variables independientes que influyen en la
variable respuesta, de modo que tenga en lo posible un valor muy
cercano al valor deseado.
 Determinar el mejor valor de las variables independientes que influyen en la
variable respuesta, de modo que la variabilidad de esta sea lo más
pequeño posible.
 Determinar el mejor valor de las variables independientes que influyen en la
variable respuesta, de tal manera que se minimicen los efectos de las
variables exógenas que no son controladas.
5
1.2. Pincipios básicos de un diseño de experimentos

⊷ Fisher el precursor de los diseños experimentales, estableció:


 Reproducción: Es la repetición del experimento básico o
tratamiento en diferentes unidades experimentales, cuyas razones
son:
- Proporciona un estimación del error experimental, que actúa
como una unidad básica de medida para indicar el significado
de las diferencias observadas o para determinar la amplitud de
un intervalo de confianza.
- Permite obtener una estimación más precisa del efecto medio de
cualquier factor, puesto que la varianza de la media es igual a
𝜎 2 /𝑛

6
1.2. Pincipios básicos de un diseño de experimentos

⊷ Aleatorización: Es la asignación de las unidades experimentales


en forma aleatoria a los diferentes tratamientos, con la finalidad de
estimar con mayor precisión el error experimental, y eliminar el
error sistemático que pudiera haber al medir las respuestas.
⊷ Control local: Es la cantidad, forma y ponderación del balanceo,
bloqueo y agrupamiento de las unidades experimentales que se
emplean en el diseño experimental adoptado y su función es hacer
que el diseño sea más eficiente.

7
1.3. Pasos para ejecutar un diseño de experimento
Los pasos para realizar un trabajo usando los diseños experimentales
varían de acuerdo a las necesidades y exigencias del trabajo a
realizar, sin embargo se deben de tener en cuenta por lo menos los
siguientes:
 Enunciado del problema
 Planteamiento de los objetivos
 Formulación de las hipótesis
 Selección de la técnica experimental, así como el diseño de
acuerdo a los objetivos, tratamientos escogidos, el tamaño de la
muestra y las unidades experimentales disponibles, de tal manera
que pueda proporcionar la mayor información posible con el
menor costo.
8
1.3. Pasos para ejecutar un diseño de experimento
- Identificación de todas las fuentes posibles de variación.
- Consideración de los posibles resultados desde el punto de vista
de los procedimientos estadísticos a usar, con la condición de que
satisfagan los requisitos y supuestos datos.
- Ejecución del experimento, es decir la aplicación de los
tratamientos a las unidades experimentales.
- Recolección de los datos previstos.
- Procesamiento de los datos recolectados, usando los medios
adecuados.
- Obtención de conclusiones con las medidas de confiabilidad
planteadas.
- Evaluación y presentación de los resultados finales.

9
1.4. Consideraciones para diseñar un experimento

1.4.1 selección de variables:


La selección de las variables independientes depende de los objetivos
formulados, estas variables pueden interactuar entre sí o no, algunas de ellas
son mas influyentes que otras en variables respuestas, para su selección se les
tendrá que analizar con la ayuda de los expertos.
La variable respuesta o dependiente, el investigador lo seleccionara
dependiendo de que esta tenga la característica de ser el mejor indicador de
los efectos de los tratamientos aplicados; esta variable debe ser susceptible al
ser medido, además debe ser sensible y confiable. Se dice que una variable
dependiente es insensible cuando no refleja ninguna diferencia entre los
efectos de tratamientos que están presentes; en tanto que la confiabilidad de
una variable depende de la consistencia de los resultados cuando se toman
varias medidas sobre la misma unidad experimental.

10
1.4.2 Métodos para controlar las variables exógenas
 Mantener constante la variable exógena para todas las unidades
experimentales.
 Asignar al azar las unidades experimentales en los niveles de tratamiento,
con la finalidad de eliminar los errores sistemáticos.
 Aparear las unidades experimentales según la variable exógena, mientras
solo se tenga que controlar uno o dos variables exógenas, este método es
confiablemente factible, sin embargo, como sucede con otros métodos de
control las dificultades aumentan a menudo que aumentan las variables
exógenas
 Emplear el control estadístico, se puede controlar los efectos de las
variables exógenas por medio de una técnica que se conoce con el
nombre de análisis de covarianza.
11
1.4.3 Métodos para controlar las variables
exógenas

En la mayoría de los experimentos, uno de


los objetivos del investigador es tener la
capacidad para inferir a partir de los
resultados obtenidos, en base a una muestra
de unidades experimentales, por lo que nos
proporcione la información deseada después
de que se les haya aplicado los tratamientos
en estudio

12 M.Sc. Emerson D. Norabuena Figueroa


1.4.4 Potencia y eficiencia relativa

La potencia de una prueba es la probabilidad de


rechazar una hipótesis nula que es falsa, viene
expresado por (1-β), en tanto que la eficiencia
relativa sirve para comparar la cantidad de
información proporcionada por dos diseños
experimentales, para lo cual se usan las
varianzas.
𝒏𝟏 + 𝟏 𝒏𝟐 + 𝟑 𝑺𝟐𝟐
𝑬𝑹 =
𝒏𝟐 + 𝟏 𝒏𝟏 + 𝟑 𝑺𝟐𝟏

Donde los 𝑆12 y𝑆22 son los cuadrados medios del error
de los diseños 1 y 2 respectivamente.
13 M.Sc. Emerson D. Norabuena Figueroa
II. Diseño con un factor
2.1. Diseño completamente aleatorio
⊷ Los tratamientos son asignados completamente al azar.
⊷ No impone ninguna restricción. A excepción si estas son homogéneas.
Ventajas Desventajas:
 Fácil de planificar y analizar.  El diseño es eficiente solo
 El número de repeticiones por tratamiento para un pequeño número de
puede ser diferente. tratamientos y para material
experimental homogéneo.
2.1.1. Diseño con una observación por unidad experimental y con igual
número de repeticiones
MODELO ESTADÍSTICO 𝑌𝑖𝑗 : es el valor de la respuesta o rendimiento observado , en el i-éismo tratamiento la j- èsima repetición. Son
variables aleatorias.
𝑌𝑖𝑗 = µ + τ𝑖 +ε𝑖𝑗 µ: efecto medio verdadero.
τ𝑖 : efecto del i-éismo tratamiento.
ε𝑖𝑗 : efecto del error experimental en el i-éismo tratamiento de la j- èsima repetición.
𝑖=1, 𝑡 𝑗=1, 𝑛 t: número de tratamientos.
14 n: número de repeticiones.
M.Sc. Emerson D. Norabuena Figueroa
 SUPUESTOS:
- Aditividad : los efectos del modelo son añadidos
- linealidad: las relaciones entre los efectos del modelo lineales.
- Normalidad: losa errores son variables aleatorias y deben poseer una
distribución normal.
- Independencia: los resultados son independientes entre si.
- homogeneidad de varianzas: las diferentes poblaciones aplicadas de los
diferentes tratamientos deben tener igual varianza.

2.1.2 Tipos de modelo


Modelo I(Efectos fijos) Modelo II(Efectos variables)
MODELO DE ANÀLISIS DE MODELO DE COMPONENETES DE
VARIANZA : es una técnica que se VARIANZA : es una colección de modelos
puede utilizar para decidir si las medias estadísticos y sus procedimientos asociados, en el
de dos o más poblaciones son iguales. La cual la varianza está particionada en ciertos
prueba se basa en una muestra única, componentes debidos a diferentes variables
obtenida a partir de cada población. explicativas.

15 M.Sc. Emerson D. Norabuena Figueroa


I: Modelos de efectos fijos
En este caso se hará el ANVA según el modelo t , en consecuencia se probara la igualdad de
los efectos de losa tratamientos , es decir H0 : 𝑡𝑖 = 0 ∀ i = 1,2,3,4,…,t además los efectos de
los tratamientos τ𝑖 se considera como desviaciones de la media global µ , es :

µ𝑖 = µ + τ𝑖
τ𝑖 = µ - µ𝑖
Στ𝑖 = 0
Por otro lado , para los cálculos se usara la siguiente simbología

16 M.Sc. Emerson D. Norabuena Figueroa


2.3. Intervalos de confianza para la media del i-ésimo tratamiento
Se puede estimar los promedios poblacionales en forma interválica usando la siguiente
formula:
Se sabe que: : µ𝑖 = µ + 𝑡𝑖 ∀ i = 1,2,3,4,…,t

El estimador puntual de µ es ෝ ത , si los errores están distribuidos normalmente,


µ = 𝑌..
entonces el promedio de cada tratamiento estará distribuido de manera normal con la
media µ𝑖 y varianza 𝜎 2 /n , por lo tanto, si se conoce 𝜎 2 , entonces se puede usar la
distribución normal para construir un intervalos de confianza, si empleamos el CME
como estimador de 𝜎 2 , entonces se puede usar la distribución t:
𝑌ത 𝑖. .−µ𝑖
t= es una t con t(n-1)g.l.
𝐶𝑀𝐸
𝑛

Luego para un α dado se tiene:

𝐶𝑀𝐸 𝐶𝑀𝐸
P (𝑌ത𝑖. - 𝑡α/2 < µ𝑖 < 𝑌ത𝑖. + 𝑡α/2 )=1-α
𝑛 𝑛

17 M.Sc. Emerson D. Norabuena Figueroa


II: Modelos de efectos Aleatorios
En muchas, situaciones, el factor de interés puede tener un número muy grande de niveles
posibles, además el analista puede estar interesado en obtener conclusiones sobre toda la
población de niveles de dicho factor, si el investigador escoge una muestra aleatoria de niveles
del factor, entonces se dice que los efectos son aleatorios, por tanto las conclusiones alcanzadas
deben ser extendidas a la población de niveles; para ello se debe usar:
𝑌𝑖𝑗 = µ + 𝑡𝑖 + ε𝑖𝑗 ∀ i = 1,2,3,4,…,t
∀ j = 1,2,3,4,…,n
En este caso los efectos del tratamiento 𝑡𝑖 y lo errores ε𝑖𝑗 son variables aleatorias
independientes, aún cuando el modelo es lo mismo que en el caso de efectos fijos, pero los
parámetros tienen interpretaciones diferentes, pues:
V(𝑌𝑖𝑗 ) = 𝜎𝑡2 + 𝜎 2
A las varianzas 𝜎𝑡2 + 𝜎 2 se les conoce como components de varianza, razón por la cual al
modelo se le conoce también como components de varianza. Para probar la hipótesis se supone
que los errores ε𝑖𝑗 tienen distribución normal e independiente con media cero y varianza
constante 𝜎 2 seguida DNI (0, 𝜎 2 ) , asimismo 𝑡𝑖 sigue DNI (0,𝜎𝑡2 )
18 M.Sc. Emerson D. Norabuena Figueroa
II: Modelos de efectos Aleatorios
De acuerdo a la esperanza de los cuadrado medios de los tratamientos, no tiene sentido probar
σ 𝑡𝑖 = 0 , pues resulta más apropiado probar 𝐻0 : 𝜎𝑡2 = 0 , frente a 𝐻1 : 𝜎𝑡2 > 0 , si 𝜎𝑡2 = 0,
entonces todos los tratamientos tienen idénticos efectos pero si 𝜎𝑡2 > 0 , entonces significa que
existe variabilidad entre los efectos de los tratamientos, en tanto que el ANVA sigue siendo lo
mismo.
Tyy/(t−1)
𝐹𝑒 = Es una F con (t-1) y t(n-1)g.l. Si 𝐻0 es cierta
Eyy/(t−1)

19 M.Sc. Emerson D. Norabuena Figueroa


2.4. Análisis de residuos
El ANVA de un solo factor supone que las observaciones se distribuyen normal e
independientemente, con la misma varianza en todos los tratamientos o niveles del factor.
Estas suposiciones se pueden verificar examinando los residuos o errores.
𝑒𝑖𝑗 = 𝑌𝑖𝑗 − 𝑌ത𝑖.
Es decir, la diferencia entre cada observación y su media del tratamiento correspondiente.
De igual forma en la verificación de residuos se puede utilizar la prueba de Levene, Bartlett
o de Cochran, pero también se pueden graficar los residuos con los niveles del factor y
comparar la dispersión de los residuos; y por último también es factible graficar los residuos
contra los promedios 𝑌ത𝑖. , dicha variabilidad de los residuos no debe depender de los
promedios, peor cuando pueda suceder este patrón se indicará que debe transformarse la
variable, pudiendo emplear logY , 𝑌, 1/Y, etc. En tanto, las suposiciones de dependencia
se puede verificar gráficamente entre los residuos con el tiempo y orden de la serie en que se
ejecutó el experimento; un patrón en esta gráfica tal y como la secuencia de residuos
positivos o negativos puede indicar que las observaciones no son independientes, además
indica que el tiempo u orden de la serie es importante, o que las variables que cambian con
el tiempo son importante pero se han obviado en el diseño.

Aplicación Caso 07:


20 M.Sc. Emerson D. Norabuena Figueroa
2.5. Comparaciones Múltiples
El análisis de varianza es un procedimiento poderoso para probar la homogeneidad o diferencia entre un
conjunto de medias, sin embargo, si rechaza 𝐻0 se assume la alternative como cierta, es decir que no todas
las medias son iguales, entonces surge la pregunta cuáles pares de medias son diferentes y cuales son
iguales, uno de los procedimientos que conducen a discerner este dilemma son los contrastes ortogonales,
sin embargo no nos proporciona específicamente cuáles pares de medias son las diferentes y cuáles son
lasiguales, en consecuencia se tendría que comparer todos los posibles pares. Si existen t tratamientos
entonces habría t(t – 1)/2 pares posibles. Para hacer una simplificación de estas pruebas, existen varios
procedimientos cuyo objetivo es determiner cuáles son los pares de medias que son diferentes, y se
estudiará:

2.5.1. Prueba de diferencia significativa mínima

Este procedimiento es una extensión de la prueba de t para el caso de comparaciones de 2 medias; usada
para muestras de igual tamaño y necesaria para determinar la diferencia significativa mínima (DSM), que
viene a ser:
𝑌ത1 − 𝑌ത2 − (µ1 − µ2 )
𝑡=
𝑆12 𝑆22
( + )
𝑛1 𝑛2

21 M.Sc. Emerson D. Norabuena Figueroa


Si el valor experimental es mayor que el valor tabular, se dice que la diferencia entre µ1 y µ2 es
significativa, entonces el DSM se considera como el menor de las diferencias | 𝑌ത𝑖 − 𝑌ത𝑗 | y como
2
𝑆 𝑆22
( µ1 − µ2 ) = 0 , según 𝐻0 , se puede considerer a la DSM = | 𝑌ത𝑖 − 𝑌ത𝑗 | = ( 𝑛1 + )∀i≠j
1 𝑛2

Si 𝑆12 = 𝑆22 = 𝑆 2 = CME y 𝑛1 = 𝑛2 = n; además t = 𝑡α/2 con los grados de libertad del CME,
consecuencia

2𝑆 2
DSM = 𝑡α/2 𝑛

Aplicación Caso 08:

22 M.Sc. Emerson D. Norabuena Figueroa


2.5.2. Prueba de Tukey

Cuando realizamos una prueba simple de comparación entre 2 medias, no existe mayores problemas con la
decisión de rechazar la 𝐻0 , pero cuando se realiza varias pruebas de este tipo, existen serias dificultades
con la Tasa de Error Experimeno Jucio, es decir, con la probabilidad de falso rechazo de almenos una
hipótesis, que está dado por la expression.
P = 1 – (1 − α)𝑟
α: probabilidad de cometer error tipo I.
r = t (t - 1)/2
Claramente se nota que esta probabilidad tiende a crece si r aumente, así por ejemplo, si t = 5 luego
r=5(5-1)/2 = 10, es decir, 10 pruebas de pares de medias.
P = 1 – (1−0,05)10
P = 0,40126
A partir de este proceso, se recomienda tener cuenta métodos que no agraven los resultados, prueba de la
diferencia significativa honesta de Tukey (DSHT)), esta prueba se usa al igual que la DSM, después que
se haya rechazado la 𝐻0 del ANVA y cuando los tamaños muestrales son iguales, pero en este caso se
emplea el valor 𝑞α,𝑡 , con grados de libertad del CME del ANVA en lugar de 𝑡α/2 , el valor que se tiene de
la table correspondiente con un α determinado para los t tratamientos en studio y los grados de libertad del
CME como se mencionó:
23
2.5.2. Prueba de Tukey

𝑆2
𝐷𝑆𝐻𝑇 = 𝑞α,𝑡
𝑛

𝑆 2 = CME
n = número de réplicas o muestras

Aplicación Caso 09:

24 M.Sc. Emerson D. Norabuena Figueroa


2.5.3. Prueba de Duncan

Llamada también Rango Múltiple de Duncan o intervalos múltiples de Duncan, este es otra prueba para
determinar la diferencia entre pares de medias después de que se haya rechazado la hipótesis nula en el
ANVA. Este procedimiento también se basa en la noción general del Rango estandarizado, el rango de
cualquier subconjunto de t medias muestrales debe exceder cierto valor antes de que se encuentre que
cualquiera de t medias muestrales debe exceder cierto valor antes de que se encuentre que cualquiera de las
t medias sea diferente, este valor se llama Rango de menor significancia para las t medias y se le denota por
Rt, cuya expresión es el siguiente:

𝑆2
𝑅𝑡 = 𝑟𝑡
𝑛

𝑆 2 = CME
n = número de réplicas o muestras
Los valores 𝑟𝑡 cuya denominación es la de rango estandarizado de menor significancia, depende del α que
se desea y el número de grados de libertad correspondiente a los grados de libertad del CME del ANVA
respective, el valor se obtiene de la table correspondiente. Cuando los tamaños muestralos son diferentes, se
recomienda reemplarlos por la media armónica de ellos:
𝑡
𝑟𝑡 = σ𝑡
𝑖=1(1/𝑛𝑖 )

25 M.Sc. Emerson D. Norabuena Figueroa


Aplicación Caso 10:
Emplee el caso 09, para determinar entre cuáles pares de medias existen diferencias
significativas usando Duncan.
Datos
𝑦ത1 = 17,29 𝑡=5 n=7
𝑦ത2 = 27,00 CME = 15,3524
𝑦ത3 = 37,71 30g.l
𝑦ത4 = 46,86
𝑦ത5 = 65,86
Solución
𝑟5 = 3,199
𝑟𝑡 = σ𝑡
𝑡 𝑟4 = 3,131
𝑆2 15,3524
= = 1,481 𝑖=1(1/𝑛𝑖 ) 𝑟3 = 3,035
𝑛 7
𝑟2 = 2,888
∝ = 0,05

𝑅5 = 4,738
𝑆2 𝑅4 = 4,637
𝑅𝑡 = 𝑟𝑡
𝑛 𝑅3 = 4,495
𝑅2 = 4,277
26 M.Sc. Emerson D. Norabuena Figueroa
Luego se determina la diferencia de las medias muestrales, el resultado se compara con el
valor tabular, si la diferencia es mayor al valor tabular se rechaza 𝐻0 , de lo contrario no
habrá evidencia suficiente para rechazarlo.

5 vs 4: 65,86 – 46,86 = 19,00 > 4,738, se rechaza 𝐻0


5 vs 1: 65,86 – 17,29 = 48,57 > 4,637, se rechaza 𝐻0
3 vs 4: 46,86 – 37,71 = 9,15 > 4,637, se rechaza 𝐻0
5 vs 2: 65,86 – 27,00 = 38,86 > 4,495, se rechaza 𝐻0
3 vs 1: 37,71 – 17,29 = 20,42 > 4,495, se rechaza 𝐻0
2 vs 4: 46,86 – 27,00 = 19,86 > 4,495, se rechaza 𝐻0
5 vs 3: 65,86 – 37,71 = 28,15 > 4,277, se rechaza 𝐻0
3 vs 2: 37,71 – 27,00 = 10,71 > 4,277, se rechaza 𝐻0
2 vs 1: 27,00 – 17,29 = 9,71 > 4,277, se rechaza 𝐻0
1 vs 4: 46,86 – 17,29 = 29,57 > 4,277, se rechaza 𝐻0

En consecuencia no existe diferencia significativa entre los pares de medias.

27 M.Sc. Emerson D. Norabuena Figueroa


Rango estandarizado de menor
significancia de Duncan

28 M.Sc. Emerson D. Norabuena Figueroa


Rango estandarizado de menor
significancia de Duncan

29 M.Sc. Emerson D. Norabuena Figueroa


Aplicación en el software Minitab 18

30 M.Sc. Emerson D. Norabuena Figueroa

También podría gustarte