Está en la página 1de 30

DISEÑOS

EXPERIMENTA
LES

M.Sc. Emerson D. Norabuena


Contenido
SUMARIO OBJETIVOS

 La investigación y  Determinar cuáles son las variables x que tienen


mayor influencia sobre la respuesta y.
el diseño de  Determinar el mejor valor de las variables x que
experimentos influyen en la variable y, de modo que tenga en lo
posible un valor cercano al valor deseado..
 Principios básicos  Determinar el mejor valor de las variables x que
de experimentación influyen en la variable y, de modo que la variabilidad
de esta sea lo más pequeño posible.
 Determinar de tal manera que se minimicen los efectos
de las variables exógenas que no son controladas.

2 M.Sc. Emerson D. Norabuena


INTRODUCCIÓN
Si entendemos a la estadística como ciencia que nos
proporciona métodos y técnicas para recolectar, procesar,
presentar, analizar y sacar conclusiones de un conjunto de
datos (materia prima).

Un investigador cuenta con las principales fuentes de


datos:
- Del almacenamiento y archivamiento rutinario que
hacen las instituciones de sus actividades
- De las encuestas con fines específicos, y
- De los diseños experimentales, con propósito de
investigación.

3 M.Sc. Emerson D. Norabuena


Los datos, tanto los rutinarios como los de las encuestas
tienen la característica de que no pueden ser controlados
por el investigador, se les tiene que aceptar tal como son,
con el propósito de mejorar la calidad de los datos se ha
introducido una tercera fuente que es la de los diseños
experimentales.

En general, los experimentos se usan para estudiar el


desempeño de procesos y sistemas.

M.Sc. Emerson D. Norabuena


1.1. El diseño de un experimental
En resumen, el diseño de un experimento consiste, en la secuencia completa y
planificada de pasos previstos de antemano para asegurar que se tomaran los
datos apropiados con el fin de realizar un análisis objetivo de un problema
determinado y que conducirán a conclusiones válidas.

Objetivos

 Determinar cuáles de las variables independientes (factores) tienen mayor influencia


en la variable respuesta.
 Determinar el mejor valor de las variables independientes que influyen en la variable
respuesta, de modo que tenga en lo posible un valor muy cercano al valor
deseado.
 Determinar el mejor valor de las variables independientes que influyen en la variable
respuesta, de modo que la variabilidad de esta sea lo más pequeño posible.
 Determinar el mejor valor de las variables independientes que influyen en la variable
respuesta, de tal manera que se minimicen los efectos de las variables exógenas
que no son controladas.

5 M.Sc. Emerson D. Norabuena


1.2. Pincipios básicos de un diseño de experimentos

⊷ Fisher el precursor de los diseños experimentales, estableció:

⊷ Reproducción:
  Es la repetición del experimento básico o
tratamiento en diferentes unidades experimentales, cuyas razones
son:
- Proporciona un estimación del error experimental, que actúa
como una unidad básica de medida para indicar el significado
de las diferencias observadas o para determinar la amplitud de
un intervalo de confianza.
- Permite obtener una estimación más precisa del efecto medio
de cualquier factor, puesto que la varianza de la media es igual
a

6 M.Sc. Emerson D. Norabuena


1.2. Pincipios básicos de un diseño de experimentos

⊷ Aleatorización: Es la asignación de las unidades experimentales


en forma aleatoria a los diferentes tratamientos, con la finalidad de
estimar con mayor precisión el error experimental, y eliminar el
error sistemático que pudiera haber al medir las respuestas.
⊷ Control local: Es la cantidad, forma y ponderación del balanceo,
bloqueo y agrupamiento de las unidades experimentales que se
emplean en el diseño experimental adoptado y su función es hacer
que el diseño sea más eficiente.

7 M.Sc. Emerson D. Norabuena


1.3. Pasos para ejecutar un diseño de experimento

Los pasos para realizar un trabajo usando los diseños experimentales


varían de acuerdo a las necesidades y exigencias del trabajo a
realizar, sin embargo se deben de tener en cuenta por lo menos los
siguientes:
 Enunciado del problema
 Planteamiento de los objetivos
 Formulación de las hipótesis
 Selección de la técnica experimental, así como el diseño de
acuerdo a los objetivos, tratamientos escogidos, el tamaño de la
muestra y las unidades experimentales disponibles, de tal manera
que pueda proporcionar la mayor información posible con el
menor costo.
8 M.Sc. Emerson D. Norabuena
1.3. Pasos para ejecutar un diseño de experimento
- Identificación de todas las fuentes posibles de variación.
- Consideración de los posibles resultados desde el punto de vista
de los procedimientos estadísticos a usar, con la condición de que
satisfagan los requisitos y supuestos datos.
- Ejecución del experimento, es decir la aplicación de los
tratamientos a las unidades experimentales.
- Recolección de los datos previstos.
- Procesamiento de los datos recolectados, usando los medios
adecuados.
- Obtención de conclusiones con las medidas de confiabilidad
planteadas.
- Evaluación y presentación de los resultados finales.

9 M.Sc. Emerson D. Norabuena


1.4. Consideraciones para diseñar un experimento

1.4.1 selección de
variables:La selección de las variables independientes depende de los objetivos
formulados, estas variables pueden interactuar entre sí o no, algunas de ellas
son mas influyentes que otras en variables respuestas, para su selección se les
tendrá que analizar con la ayuda de los expertos.
La variable respuesta o dependiente, el investigador lo seleccionara
dependiendo de que esta tenga la característica de ser el mejor indicador de los
efectos de los tratamientos aplicados; esta variable debe ser susceptible al ser
medido, además debe ser sensible y confiable. Se dice que una variable
dependiente es insensible cuando no refleja ninguna diferencia entre los
efectos de tratamientos que están presentes; en tanto que la confiabilidad de
una variable depende de la consistencia de los resultados cuando se toman
varias medidas sobre la misma unidad experimental.

10 M.Sc. Emerson D. Norabuena


1.4.2 Métodos para controlar las variables
exógenas  Mantener constante la variable exógena para todas las unidades
experimentales.
 Asignar al azar las unidades experimentales en los niveles de tratamiento,
con la finalidad de eliminar los errores sistemáticos.
 Aparear las unidades experimentales según la variable exógena, mientras
solo se tenga que controlar uno o dos variables exógenas, este método es
confiablemente factible, sin embargo, como sucede con otros métodos de
control las dificultades aumentan a menudo que aumentan las variables
exógenas
 Emplear el control estadístico, se puede controlar los efectos de las
variables exógenas por medio de una técnica que se conoce con el
nombre de análisis de covarianza.
11 M.Sc. Emerson D. Norabuena
1.4.3 Métodos para controlar las variables
exógenas

En la mayoría de los experimentos, uno de


los objetivos del investigador es tener la
capacidad para inferir a partir de los
resultados obtenidos, en base a una muestra
de unidades experimentales, por lo que nos
proporcione la información deseada después
de que se les haya aplicado los tratamientos
en estudio

12 M.Sc. Emerson D. Norabuena


1.4.4 Potencia y eficiencia
relativa
La potencia de una prueba es la probabilidad de
rechazar una hipótesis nula que es falsa, viene
expresado por (1-β), en tanto que la eficiencia
relativa sirve para comparar la cantidad de
información proporcionada por dos diseños
experimentales, para lo cual se usan las
varianzas.
  ( 𝒏𝟏+𝟏 ) ( 𝒏 𝟐+𝟑 ) 𝑺𝟐𝟐
𝑬𝑹 = 𝟐
( 𝒏𝟐+𝟏 ) ( 𝒏 𝟏+𝟑 ) 𝑺𝟏
 
Donde los y son los cuadrados medios del error de los
diseños 1 y 2 respectivamente.
13 M.Sc. Emerson D. Norabuena
II. Diseño con un factor
2.1. Diseño completamente aleatorio
⊷ Los tratamientos son asignados completamente al azar.
⊷ No impone ninguna restricción. A excepción si estas son homogéneas.

Ventajas Desventajas:
 Fácil de planificar y analizar.  El diseño es eficiente solo
 El número de repeticiones por tratamiento para un pequeño número de
puede ser diferente. tratamientos y para material
experimental homogéneo.

2.1.1. Diseño con una observación por unidad experimental y con igual
número de repeticiones
MODELO ESTADÍSTICO :  es el valor de la respuesta o rendimiento observado , en el i-éismo tratamiento la j- èsima repetición. Son
variables aleatorias.
  = µ ++ µ: efecto medio verdadero.
: efecto del i-éismo tratamiento.
: efecto del error experimental en el i-éismo tratamiento de la j- èsima repetición.
  =   = t: número de tratamientos.
14 n: número de repeticiones.

M.Sc. Emerson D. Norabuena


 SUPUESTOS:
- Aditividad : los efectos del modelo son añadidos
- linealidad: las relaciones entre los efectos del modelo lineales.
- Normalidad: losa errores son variables aleatorias y deben poseer una
distribución normal.
- Independencia: los resultados son independientes entre si.
- homogeneidad de varianzas: las diferentes poblaciones aplicadas de los
diferentes tratamientos deben tener igual varianza.

2.1.2 Tipos de modelo


Modelo I(Efectos fijos) Modelo II(Efectos variables)
MODELO DE ANÀLISIS DE MODELO DE COMPONENETES DE
VARIANZA : es una técnica que se VARIANZA : es una colección de 
puede utilizar para decidir si las medias modelos estadísticos y sus procedimientos
de dos o más poblaciones son iguales. La asociados, en el cual la varianza está particionada
prueba se basa en una muestra única, en ciertos componentes debidos a diferentes
obtenida a partir de cada población. variables explicativas.

15 M.Sc. Emerson D. Norabuena


I: Modelos de efectos fijos
 En este caso se hará el ANVA según el modelo t , en consecuencia se probara la igualdad de
los efectos de losa tratamientos , es decir : ∀ i = 1,2,3,4,…,t además los efectos de los
tratamientos se considera como desviaciones de la media global µ , es :

  =µ+
  =µ-
  =0
Por otro lado , para los cálculos se usara la siguiente simbología

16 M.Sc. Emerson D. Norabuena


2.3. Intervalos de confianza para la media del i-ésimo tratamiento
 Se puede estimar los promedios poblacionales en forma interválica usando la siguiente
formula:
Se sabe que: : ∀ i = 1,2,3,4,…,t

 El estimador puntual de es = .. , si los errores están distribuidos normalmente, entonces


el promedio de cada tratamiento estará distribuido de manera normal con la media y
varianza /n , por lo tanto, si se conoce se puede usar la distribución normal para construir
un intervalos de confianza, si empleamos el CME como estimador de , entonces se puede
usar la distribución t:
t = es una t con t(n-1)g.l.
Luego para un α dado se tiene:
P(- < < + )=1-α

17 M.Sc. Emerson D. Norabuena


II: Modelos de efectos Aleatorios
 En muchas, situaciones, el factor de interés puede tener un número muy grande de niveles
posibles, además el analista puede estar interesado en obtener conclusiones sobre toda la
población de niveles de dicho factor, si el investigador escoge una muestra aleatoria de niveles
del factor, entonces se dice que los efectos son aleatorios, por tanto las conclusiones
alcanzadas deben ser extendidas a la población de niveles; para ello se debe usar:
∀ i = 1,2,3,4,…,t
∀ j = 1,2,3,4,…,n
En este caso los efectos del tratamiento y lo errores son variables aleatorias independientes,
aún cuando el modelo es lo mismo que en el caso de efectos fijos, pero los parámetros tienen
interpretaciones diferentes, pues:
V() = +
A las varianzas + se les conoce como components de varianza, razón por la cual al modelo se
le conoce también como components de varianza. Para probar la hipótesis se supone que los
errores tienen distribución normal e independiente con media cero y varianza constante
seguida DNI (0, ) , asimismo sigue DNI (0,)

18 M.Sc. Emerson D. Norabuena


II: Modelos de efectos Aleatorios
 De acuerdo a la esperanza de los cuadrado medios de los tratamientos, no tiene sentido
probar , pues resulta más apropiado probar : = 0 , frente a : > 0 , si = 0, entonces todos los
tratamientos tienen idénticos efectos pero si > 0 , entonces significa que existe variabilidad
entre los efectos de los tratamientos, en tanto que el ANVA sigue siendo lo mismo.
= Es una F con (t-1) y t(n-1)g.l. Si es cierta

19 M.Sc. Emerson D. Norabuena


2.4. Análisis de residuos
 El ANVA de un solo factor supone que las observaciones se distribuyen normal e
independientemente, con la misma varianza en todos los tratamientos o niveles del factor.
Estas suposiciones se pueden verificar examinando los residuos o errores.

Es decir, la diferencia entre cada observación y su media del tratamiento correspondiente.


De igual forma en la verificación de residuos se puede utilizar la prueba de Levene, Bartlett
o de Cochran, pero también se pueden graficar los residuos con los niveles del factor y
comparar la dispersión de los residuos; y por último también es factible graficar los
residuos contra los promedios , dicha variabilidad de los residuos no debe depender de los
promedios, peor cuando pueda suceder este patrón se indicará que debe transformarse la
variable, pudiendo emplear logY , , 1/Y, etc. En tanto, las suposiciones de dependencia se
puede verificar gráficamente entre los residuos con el tiempo y orden de la serie en que se
ejecutó el experimento; un patrón en esta gráfica tal y como la secuencia de residuos
positivos o negativos puede indicar que las observaciones no son independientes, además
indica que el tiempo u orden de la serie es importante, o que las variables que cambian con
el tiempo son importante pero se han obviado en el diseño.

20 Aplicación Caso 07:


M.Sc. Emerson D. Norabuena
2.5. Comparaciones Múltiples
  análisis de varianza es un procedimiento poderoso para probar la homogeneidad o diferencia entre un
El
conjunto de medias, sin embargo, si rechaza se assume la alternative como cierta, es decir que no todas las
medias son iguales, entonces surge la pregunta cuáles pares de medias son diferentes y cuales son iguales,
uno de los procedimientos que conducen a discerner este dilemma son los contrastes ortogonales, sin
embargo no nos proporciona específicamente cuáles pares de medias son las diferentes y cuáles son
lasiguales, en consecuencia se tendría que comparer todos los posibles pares. Si existen t tratamientos
entonces habría t(t – 1)/2 pares posibles. Para hacer una simplificación de estas pruebas, existen varios
procedimientos cuyo objetivo es determiner cuáles son los pares de medias que son diferentes, y se
estudiará:

2.5.1. Prueba de diferencia significativa mínima


Este procedimiento es una extensión de la prueba de t para el caso de comparaciones de 2 medias; usada
para muestras de igual tamaño y necesaria para determinar la diferencia significativa mínima (DSM), que
viene a ser:

  ( 𝑌´ 1 − 𝑌´ 2 ) −(µ 1 − µ2 )
𝑡=
2 2
𝑆1 𝑆 2
√ ( + )
𝑛1 𝑛 2
21 M.Sc. Emerson D. Norabuena
  el valor experimental es mayor que el valor tabular, se dice que la diferencia entre y es
Si
significativa, entonces el DSM se considera como el menor de las diferencias | | y como ( ) =
0 , según se puede considerer a la DSM = | | = ∀ i ≠ j
Si = = = CME y = n; además t = con los grados de libertad del CME, consecuencia
DSM =

Aplicación Caso 08:

22 M.Sc. Emerson D. Norabuena


2.5.2. Prueba de Tukey

 Cuando realizamos una prueba simple de comparación entre 2 medias, no existe mayores problemas con la
decisión de rechazar la , pero cuando se realiza varias pruebas de este tipo, existen serias dificultades con la
Tasa de Error Experimeno Jucio, es decir, con la probabilidad de falso rechazo de almenos una hipótesis,
que está dado por la expression.
P=
: probabilidad de cometer error tipo I.
r = t (t - 1)/2
Claramente se nota que esta probabilidad tiende a crece si r aumente, así por ejemplo, si t = 5 luego
r=5(5-1)/2 = 10, es decir, 10 pruebas de pares de medias.
P=
P = 0,40126
A partir de este proceso, se recomienda tener cuenta métodos que no agraven los resultados, prueba de la
diferencia significativa honesta de Tukey (DSHT)), esta prueba se usa al igual que la DSM, después que
se haya rechazado la del ANVA y cuando los tamaños muestrales son iguales, pero en este caso se emplea
el valor , con grados de libertad del CME del ANVA en lugar de , el valor que se tiene de la table
correspondiente con un determinado para los t tratamientos en studio y los grados de libertad del CME
como se mencionó:
23 M.Sc. Emerson D. Norabuena
2.5.2. Prueba de Tukey

 
= CME
n = número de réplicas o muestras

Aplicación Caso 09:

24 M.Sc. Emerson D. Norabuena


2.5.3. Prueba de Duncan

 Llamada también Rango Múltiple de Duncan o intervalos múltiples de Duncan, este es otra prueba para
determinar la diferencia entre pares de medias después de que se haya rechazado la hipótesis nula en el
ANVA. Este procedimiento también se basa en la noción general del Rango estandarizado, el rango de
cualquier subconjunto de t medias muestrales debe exceder cierto valor antes de que se encuentre que
cualquiera de t medias muestrales debe exceder cierto valor antes de que se encuentre que cualquiera de las t
medias sea diferente, este valor se llama Rango de menor significancia para las t medias y se le denota por
Rt, cuya expresión es el siguiente:

= CME
n = número de réplicas o muestras
Los valores cuya denominación es la de rango estandarizado de menor significancia, depende del que se
desea y el número de grados de libertad correspondiente a los grados de libertad del CME del ANVA
respective, el valor se obtiene de la table correspondiente. Cuando los tamaños muestralos son diferentes, se
recomienda reemplarlos por la media armónica de ellos:
=

25 M.Sc. Emerson D. Norabuena


Aplicación Caso 10:
Emplee el caso 09, para determinar entre cuáles pares de medias existen diferencias
significativas usando Duncan.
Datos
 = 17,29 5  n = 7
 = 27,00 CME = 15,3524
 = 37,71 30g.l
 = 46,86
 = 65,86
Solución
 
  =   =

∝=0,05
 

 
𝑆2  

26
𝑅𝑡 =𝑟 𝑡
√ 𝑛
M.Sc. Emerson D. Norabuena
 
Luego se determina la diferencia de las medias muestrales, el resultado se compara con el
valor tabular, si la diferencia es mayor al valor tabular se rechaza , de lo contrario no habrá
evidencia suficiente para rechazarlo.

5 vs 4: 65,86 – 46,86 = 19,00 > 4,738, se rechaza


5 vs 1: 65,86 – 17,29 = 48,57 > 4,637, se rechaza
3 vs 4: 46,86 – 37,71 = 9,15 > 4,637, se rechaza
5 vs 2: 65,86 – 27,00 = 38,86 > 4,495, se rechaza
3 vs 1: 37,71 – 17,29 = 20,42 > 4,495, se rechaza
2 vs 4: 46,86 – 27,00 = 19,86 > 4,495, se rechaza
5 vs 3: 65,86 – 37,71 = 28,15 > 4,277, se rechaza
3 vs 2: 37,71 – 27,00 = 10,71 > 4,277, se rechaza
2 vs 1: 27,00 – 17,29 = 9,71 > 4,277, se rechaza
1 vs 4: 46,86 – 17,29 = 29,57 > 4,277, se rechaza

En consecuencia no existe diferencia significativa entre los pares de medias.

27 M.Sc. Emerson D. Norabuena


Rango estandarizado de menor
significancia de Duncan

28 M.Sc. Emerson D. Norabuena


Rango estandarizado de menor
significancia de Duncan

29 M.Sc. Emerson D. Norabuena


Aplicación en el software Minitab 18

30 M.Sc. Emerson D. Norabuena

También podría gustarte