Está en la página 1de 10

ESCUELA SUPERIOR POLITÉCNICA DE

CHIMBORAZO

FACULTAD DE MECÁNICA
CARRERA DE INGENIERÍA INDUSTRIAL
DISEÑO EXPERIMENTAL

TEMA. Principios de los diseños experimentales

PAO: 9

NOMBRE. Cando Molina


Manobanda Gabriela
Tenemasa Stefania
Toapanta Néstor

PERIODO ACADÉMICO
ABRIL – SEPTIEMBRE 2022
PRINCIPIOS BÁSICOS DE LOS DISEÑOS EXPERIMENTALES

Algunos principios básicos del diseño experimental tienen que ver con la formulación del
problema bajo investigación, la escogencia del diseño experimental, la ejecución del experimento,
el análisis de los datos y la interpretación de los resultados. Estos principios se discutirán en forma
general, dejando los detalles específicos referentes a los diseños experimentales para sesiones
posteriores.

Cuando se describieron los pasos de un experimento se enfatizó el aspecto estadístico en


particular. la formulación del modelo estadístico y el análisis de los datos. Para garantizar el
análisis estadístico y para incrementar su sensibilidad, se debe tener en cuenta tres principios
básicos en cualquier experimento: la replicación, la aleatorización y el bloqueo o control local.
(Mendoza, 2019)

La replicación

Por esta se entiende que cada tratamiento (o alguno de los tratamientos) debe ser aplicado a varias
unidades experimentales. La replicación sirve para:

1. Proveer un estimado del error experimental, tal estimación se convierte en la unidad


básica para determinar si las diferencias observadas en los datos son estadísticamente
significativas
2. Incrementar la precisión por medio de la reducción de errores estándar.
3. Calcular una estimación más precisa del efecto de un factor en el experimento si se usa

la media muestral ( ) como una estimación de dicho efecto. (Mendoza, 2019)

La Aleatorización

Consiste en que tanto la asignación del material experimental como el orden en que se realizan
las pruebas individuales o ensayos se determinan aleatoriamente y sirve para:

Garantizar la validez de la estimación del error experimental.

Garantizar la independencia de los errores o que las observaciones sean variables aleatorias
independientes. Esto es necesario para obtener pruebas de significancia válidas y estimados de
intervalos.

Eliminar el sesgo de tal manera que no se desfavorezca o discrimine a los tratamientos y permite
cancelar los efectos de factores extraños que pudieran estar presentes.

Existen varias formas prácticas para la asignación aleatoria de los tratamientos a las unidades
experimentales; una es la numeración de los tratamientos, que luego a manera de sorteo se extraen
de una urna de fichas rotuladas con dicha numeración; el orden en que aparecen los números
corresponde al orden de asignación de los tratamientos. También existen tablas que contienen
números aleatorios y programas de computadora que los generan. El proceso de asignar
aleatoriamente las unidades experimentales y los tratamientos se puede hacer de la siguiente
manera:

Marque las unidades experimentales 1, 2, …, N. Luego marque unos papelitos con los
números k= 1, 2, …, N. Coloque los papelitos en una bolsa. Seleccione un papelito y márquelo
por el reverso de donde está marcado con el número (11), deje este papelito fuera de la bolsa.
Proceda nuevamente a seleccionar otro papelito y márquelo ahora con el número (12). Continúe
este proceso hasta que queden marcados todos los papelitos como11, 12, …, 1r, 21, 22, …, 2r, …,
t1, t2, …, tr. Ahora si el papelito k, y por consiguiente la unidad experimental k, está asociada con
la marca (ij), se aplica el tratamiento i a esta unidad experimental.

También se puede hacer el anterior proceso usando la tabla de números aleatorios. Como ejemplo
suponga que N=24, t=6y, r=4. Usted puede marcar las UE con números de dos dígitos01, 02, …,
24. Luego asocie los números 1, 2, 3 y 4 con la UE 1 y ubicándose en cualquier lugar de la tabla
se empieza a recorrerla en cualquier sentido para localizar los números anteriores. (Mendoza,
2019)

El bloqueo o control local

En el cual la idea básica es particionar el conjunto total de las UE en subconjuntos (bloques) que
sean lo más homogéneo posible, eliminando de esta forma los efectos de factores extraños que
contribuyen a la variación sistemática de las diferencias entre las unidades experimentales.
Existen varias razones para bloquear en un diseño experimental:

1. Puede incrementarse la precisión de un experimento. Las diferencias entre los bloques


son eliminadas del error experimental en el análisis de resultados reduciendo de esta
forma el error.
2. Los tratamientos son comparados bajo casi idénticas condiciones, ya que las
comparaciones son hechas dentro de bloques de unidades uniformes. (Mendoza, 2019)

SUPUESTO DE NORMALIDAD
Procedimiento gráfico para verificar el cumplimiento del supuesto de normalidad de los
residuos consiste en graficar los residuos en papel o en la gráfica de probabilidad normal que se
incluye casi en todos los paquetes estadísticos. Esta gráfica del tipo X-Y tiene las escalas de tal
manera que, si los residuos siguen una distribución normal, al graficarlos tienden a quedar
alineados en una línea recta; por lo tanto, si claramente no se alinean se concluye que el supuesto
de normalidad no es correcto. Cabe enfatizar el hecho de que el ajuste de los puntos a una recta
no tiene que ser perfecto, dado que el análisis de varianza resiste pequeñas y moderadas
desviaciones al supuesto de normalidad. En las figuras 3.6a y 3.6b se representan, en la gráfica
de probabilidad normal, dos aspectos de los residuos, en los cuales el supuesto de normalidad no
se cumple.

Para comprobar la suposición de normalidad podemos utilizar la gráfica de probabilidad normal


de los residuos.

Si la distribución de los errores es normal, esta gráfica parecerá una línea recta.

Pasos a seguir:
1. Después de haber realizado el análisis ANOVA de un factor, en el botón de “guardar
resultados”, le pediremos que nos guarde los residuos (RESIDUALS). Aparecerá en la
hoja de datos una nueva columna con los residuos.
2. Vamos a hacer un análisis unidimensional de los residuos: Menú Descripción>Datos
Numéricos>Análisis unidimensional y metemos los residuos (RESIDUALS) en Datos.
3. En las opciones gráficas del análisis unidimensional pedimos que nos represente el
gráfico de probabilidad normal. (Molanes, 2019)

Prueba de Shapiro-Wilks para normalidad

Consideremos una muestra aleatoria de datos X 1, X2, …, Xn que proceden de cierta distribución
desconocida denotada por F(x). Se quiere verificar si dichos datos fueron generados por un
proceso normal, mediante las hipótesis estadísticas:
H0: Los datos proceden de una distribución normal (F(x) es normal).

HA: Los datos no proceden de una distribución normal (F(x) no es normal).

Los pasos para la prueba de Shapiro-Wilks son: 1) Se ordenan los datos de menor a mayor.
Denotemos los datos ordenados por X(1), X(2), …, X(n). 2) De la tabla dada en el apéndice para este
procedimiento se obtienen los coeficientes a1, a2, …, ak, donde k es aproximadamente n/2. 3) Se
calcula el estadístico W definido como:

donde S2 es la varianza muestral. 4) Por último, si el valor del estadístico es mayor que su valor
crítico al nivel a seleccionado en la tabla del apéndice, se rechaza la normalidad de los datos.

Para ilustrar la prueba de Shapiro-Wilks consideremos otra vez los mismos datos de las gráficas
de probabilidad normal. De acuerdo con los datos ordenados, parte del procedimiento posterior
al paso 2 para calcular el estadístico W se resume en la tabla que se presenta más adelante.

La varianza es S2 = 15.72. Con la fórmula de la ecuación (3.19) se obtiene que

Con el tamaño de muestra n = 10, en la tabla de valores críticos dada en el apéndice se lee que

el cuantil 95 es W1 – 0.05 = 0.987. Como W es menor que W1-a se acepta que los datos proceden
de una distribución normal, que concuerda con lo que se observó en las gráficas de
probabilidad. (Vara, 2008)
SUPUESTO DE HOMOCEDASTICIDAD

El supuesto de homogeneidad de varianzas (Los errores tienen la misma varianza), también


conocido como supuesto de homocedasticidad, considera que la varianza es constante (no varía)
en los diferentes niveles de un factor, es decir, entre diferentes grupos.Fuente especificada no válida.

Método Analítico

Pruebas Formales: Test Bartlett – Test de Levene

Prueba de Bartlett: Permite contrastar la igualdad de varianza en 2 o más poblaciones sin


necesidad de que el tamaño de los grupos sea el mismo. Es más sensible que el test de Levene a
la falta de normalidad, pero si se está seguro de que los datos provienen de una distribución
normal, es la mejor opción.

En este caso graficar los residuos contra el orden del tiempo en el que se recopilaron los datos es
también útil para detectar falta de homogeneidad de varianzas (Heteroscedasticidad). Una gráfica
que presente una mayor dispersión en un extremo que el otro es un indicio de falta de
homogeneidad de varianzas.

En el gráfico se puede observar el supuesto de homocedasticidad, para la prueba respectiva se


cuenta los puntos con desviación positiva, es decir lo puntos que están por encima de la línea
punteada central y aquellos que están por debajo de la misma. Los dos números deben ser
aproximadamente iguales. En este caso se tiene 6 puntos por encima y 6 por debajo, por lo que se
puede considerar aprobada la homocedasticidad. Fuente especificada no válida.
Supuesto de independencia

Supuesto de independencia (Los errores son independientes, no tienen correlación). Se


recomienda capturar los datos y combinaciones de prueba en el orden en que se hayan realizado,
ya que con ello se podrá comprobar el supuesto de independencia de los residuos. Fuente
especificada no válida.

Método Analítico

Pruebas Formales: Test Durbin -Watson, Test de Rachas

El Test de Durbin-Watson permite evaluar si existe autocorrelación en una Regresión lineal, sea
simple o múltiple. Con ello se pretende ver si los valores presentan algún tipo de dependencia en
cuanto al orden de obtención.

Para comprobar la suposición de independencia de los datos, es interesante graficar los residuos
frente al orden temporal en el que éstos han sido recopilados. Si en este gráfico se detecta una
tendencia a tener rachas con residuos positivos y negativos, esto nos indicará que los datos no son
independientes. No hay ninguna adaptación ni transformación para superar la falta de
independencia de los errores. Por lo tanto, debe cambiarse el diseño del experimento o la forma
en que se ha realizado.

SUPUESTO DE LINEALIDAD

La ecuación de regresión, posee una forma particular que responde a una recta. A partir de ello,
se dan como característica que la variable dependiente constituye la suma de un conjunto de
elementos que son: el origen de la recta, una combinación lineal de variables independientes o
predictoras y los residuos. (Madrid, 2021)

Análisis de los residuos:


Diagnosis del modelo
Bibliografía
Madrid, Universidad Politècnica de. 2021. Diseño de experimentos y regresiòn. Madrid : s.n.,
2021.

Mendoza, Henry. 2019. Diseño Experimental. [En línea] 21 de 02 de 2019. [Citado el: 05 de 05
de 2022.] http://red.unal.edu.co/cursos/ciencias/2000352/html/un1/cont_116-
16.html#:~:text=Algunos%20principios%20b%C3%A1sicos%20del%20dise%C3%B1o,la%20inter
pretaci%C3%B3n%20de%20los%20resultados..

Molanes, Elisa. 2019. Diseño de Experimentos: Anova. [En línea] 23 de 04 de 2019. [Citado el:
14 de 04 de 2022.]
http://halweb.uc3m.es/esp/personal/personas/emolanes/esp/archivos/estii/anova.pdf.

Vara, Humberto Gutierrez y Roman de la. 2008. Analisis y diseño de experimentos. México :
Ricardo A., 2008.

También podría gustarte