Está en la página 1de 21

INSTITUTO TECNOLOGICO

SUPERIOR DE CANANEA

MATERIA:

ESTADISTICA INFERENCIAL II

UNIDA III.- DISEÑO DE EXPERIMENTOS DE UN FACTOR

ESPECIALIDAD:
ING. Gestión Empresarial
INDICE

Introducción

3.1 familia de diseños para comparar tratamientos

3.2 el modelo de efectos fijos

3.3 diseños completamente aleatorios y ANOVA

3.4 comparaciones o prueba de rangos múltiples

3.5 verificación de los supuestos del modelo

3.6 uso de un software estadístico

Conclusión

Bibliografía
Introducción
En esta unidad se presentan los diseños experimentales que se utilizan cuando el
objetivo es comparar más de dos tratamientos.

Puede ser de interés comparar tres o más máquinas, varios proveedores, cuatro
procesos, tres materiales ,etc..

El interés del experimentador está centrado en comparar los tratamientos en


cuanto a sus medias poblacionales, sin olvidar que también es importante
compararlos con respecto a sus varianzas. Así, desde el punto de vista estadístico
3.1 Familia de diseños para comparar tratamientos
Los diseños experimentales más utilizados para comparar tratamientos son:

1. Diseño completamente al azar (DCA)

2. Diseño en bloque completamente al azar (DBCA)

3. Diseño en cuadro latino (DCL)

4. Diseño en cuadro grecolatino (DCGL)

La diferencia fundamental entre estos diseños es el número de factores de bloque


que incorporan o controlan de forma explícita durante el experimento. La
comparación de los tratamientos en cuanto a la respuesta media que logran, en
cualquiera de estos diseños, se hace mediante la hipótesis

que se prueba con la técnica estadística llamada Análisis de Varianza (ANOVA)

con uno, dos, tres o cuatro criterios de clasificación, dependiendo del número

de factores de bloques incorporados al diseño.

El modelo estadístico que describe el comportamiento de la variable observada

Y en cada diseño, incorpora un término adicional por cada factor de bloqueo


Controlado.

De acuerdo con los modelos dados en la tabla, para cada diseño comparativo se
tienen al menos dos fuentes de variabilidad: los tratamientos o niveles del factor
de interés y el error aleatorio. Se agrega una nueva fuente de variabilidad por cada
factor de bloque que se controla directamente. Se observa que los diseños
suponen que no hay efectos de interacción entre los factores, lo cual sería lo
deseable que ocurra; de no ocurrir así, tal efecto se recarga al error y el problema
de comparación no se resuelve con éxito. Un efecto de interacción entre dos
factores hace referencia a que el efecto de cada factor depende del nivel en que
se encuentra el otro.

3.2 El modelo de efectos fijos


El modelo de efectos fijos (es cuando se estudian todos los posibles tratamientos)
de análisis de la varianza se aplica a situaciones en las que el experimentador ha
sometido al grupo o material analizado a varios factores, cada uno de los cuales le
afecta sólo a la media, permaneciendo la "variable respuesta" con una distribución
normal.

Este modelo se supone cuando el investigador se interesa únicamente por los


niveles del factor presentes en el experimento, por lo que cualquier variación
observada en las puntuaciones se deberá al error experimental.
En la práctica puede suceder que los tratamientos que se desea comparar sean

demasiados como para experimentar con todos. Cuando esto sucede es


conveniente comparar sólo una muestra de la población de tratamientos, de modo

que pasa a ser una variable aleatoria con su propia varianza que deberá
estimarse a partir de los datos. En este capítulo sólo se presenta el caso en que
todos los tratamientos que se tienen se prueban, es decir, se supone una
población pequeña de tratamientos, lo cual hace posible compararlos a todos. En
este caso, el modelo dado por la ecuación (2.2) se llama modelo de efectos fijos.

3.3. Diseño completamente al azar y ANOVA


Muchas comparaciones, como las antes mencionadas, se hacen con base en el
diseño completamente al azar (DCA), que es el más simple de todos los diseños
que se utilizan para comparar dos o más tratamientos, dado que sólo consideran
dos fuentes de variabilidad: los tratamientos y el error aleatorio. En la siguiente
unidad veremos diseños que consideran la influencia de otras fuentes de
variabilidad (bloques).Este diseño se llama completamente al azar porque todas
las corridas experimentales se realizan en orden aleatorio completo. De esta
manera, si durante el estudio se hacen en total N pruebas, éstas se corren al azar,
de manera que los posibles efectos ambientales y temporales se vayan
repartiendo equitativamente entre los tratamientos.
Ejemplo 1

Comparación de cuatro métodos de ensamble. Un equipo de mejora investiga


el efecto de cuatro métodos de ensamble A, B, C y D, sobre el tiempo de
ensamble en minutos con un nivel de significancia de 0.05. En primera instancia,
la estrategia experimental es aplicar cuatro veces los cuatro métodos de ensamble
en orden completamente aleatorio (las 16 pruebas en orden aleatorio). Los
tiempos de ensamble obtenidos se muestran en la tabla 2.1. Si se usa el diseño
completamente al azar (DCA), se supone que, además del método de ensamble,
no existe ningún otro factor que influya de manera significativa sobre la variable de
respuesta (tiempo de ensamble)

Ejemplo 2

Comparación de cuatro tipos de cuero. Un fabricante de calzado desea mejorar


la calidad de las suelas, las cuales se pueden hacer con uno de los cuatro tipos de
cuero A,B, C y D disponibles en el mercado. Para ello, prueba los cueros con una
máquina que hace pasar los zapatos por una superficie abrasiva; la suela de éstos
se desgasta al pasarla por dicha superficie. Como criterio de desgaste se usa la
pérdida de peso después de un número fijo de ciclos. Se prueban en orden
aleatorio 24 zapatos, seis de cada tipo de cuero. Al hacer las pruebas en orden
completamente al azar se evitan sesgos y las mediciones en un tipo de cuero
resultan independientes de las demás. Los datos (en miligramos) sobre el
desgaste de cada tipo de cuero se muestran en la tabla 2.2
El análisis de la varianza de un criterio (ANOVA de un criterio) es una metodología
para analizar la variación entre muestras y la variación al interior de las mismas
con varianzas, en lugar de rangos. Como tal, es un método estadístico útil para
comparar dos o más medias poblacionales.

El objetivo del análisis de varianza en el DCA es probar las hipótesis de igualdad


de los tratamientos con respecto a la media de la correspondiente variable de
respuesta:

Nota: Primeramente explicare el cálculo manual tradicional para ANOVA,

posteriormente el simplificado y más práctico, así como su solución utilizando un

paquete computacional.

El método de ANOVA con un criterio requiere del cálculo de dos estimaciones

independientes para la varianza poblacional común. Estas dos estimaciones se

denotan por

Se denomina estimación de la varianza entre muestras (Método entre)


Se denomina estimación de la varianza al interior de las muestras (Método
dentro)
El estadístico entonces resulta y tiene una distribución muestral que sigue
una distribución F.

Estadístico F para el ANOVA con un criterio

El cual se contrastara con el valor de F encontrado en tablas en relación a los


grados de libertad del numerador entre grados de libertad del denominador y con
un (a) prefijado

Se deduce que si F0 es grande, se contradice la hipótesis de que no hay efectos


de tratamientos; en cambio, si F0 es pequeño se confirma la validez de H0

Método dentro

El método dentro de estimación de la varianza produce una estimación válida sin

importar si la hipótesis nula de las medias poblacionales iguales es cierta. Esto se


debe a que la variabilidad de los valores de la muestra se determina comparando
cada elemento en los datos con la media muestral. Cada valor de la muestra
obtenido de la población A se compara con la media muestral A; cada elemento
obtenido de la población B se compara con la media muestral B, y así
sucesivamente. La ecuación para calcular la estimación de la varianza con el
método dentro es:

donde: (2,4)

 = Estimación de la varianza muestral con el método entre.


 = i-ésimo elemento de los datos de grupo j.
 = media del grupo j
 C = número de grupos
 n = número de elementos de la muestra en cada grupo.

El número adecuado de grados de libertad para el método dentro se calcula como

c(n-1) si el número de observaciones en cada grupo es igual. Como a cada


elemento del grupo se le resta la media de ese grupo, sólo (n-1) elementos de
cada grupo pueden variar. Además como se tienen c grupos, c se multiplica por
(n-1) para obtener los grados de libertad para el método dentro.

Grados de libertad para


glw = C(n – 1)

Método entre

El segundo método para estimar la varianza común de la población produce una

estimación válida sólo si la hipótesis nula es cierta. Para entender el método entre

recuerde el teorema del límite central. Este importante teorema en estadística


establece que la distribución de las medias muéstrales tiende a una distribución
normal conforme crece el tamaño de la muestra, con una media u y una desviación

estándar Si el error estándar de la media es entonces la varianza de la distribución es

igual al error estándar al cuadrado,

Esta varianza es una medida de las diferencias entre todas las medias muéstrales

que puedan obtenerse de la distribución y la media de la población. La raíz


cuadrada de esta varianza es el error estándar de la media, es decir, la diferencia
estándar entre una media muestral y la media poblacional. En ANOVA, para
estimar la varianza de la distribución muestral de medias, se debe estimar primero
la media poblacional. La media de todos los valores muestrales proporciona esa
estimación. Después, se determina la diferencia entre la media de cada grupo y
esta media poblacional estimada, y estas diferencias se elevan al cuadrado y se
suman. Este valor, con frecuencia se llama la suma de cuadrados entre (SCb).
Esta suma se divide entonces entre el número adecuado de grados de libertad
para obtener la estimación de la varianza de la distribución muestral. La ecuación
siguiente da el cálculo de la estimación de la varianza de la distribución muestral
de las medias:

dónde: (2,5)
Tabla ANOVA

Los resultados del análisis de varianza se presentan en una tabla ANOVA que

resume los valores importantes de la prueba. Esta tabla tiene un formato estándar
que usan los libros y los problemas de computadora que ejecutan ANOVA. La
siguiente tabla muestra la forma general de la tabla ANOVA.

En dicha tabla se resumen los cálculos necesarios para la prueba de igualdad de


las medias poblacionales usando análisis de varianza. Primero se usa el método
dentro para estimar s2. Cada valor de los datos se compara con su propia media,
y la suma de las |||diferencias al cuadrado se divide entre los grados de libertad
c(n-1).

donde:

j = Número de la columna

i = Número de la fila

c = Número de columnas (grupos)

n = Número de elementos en cada grupo (tamaño de la muestra)

La tabla ANOVA contiene columnas con las fuentes de variación, las sumas de
cuadrados, los grados de libertad, las estimaciones de la varianza y el valor F para
el procedimiento de análisis de varianza.

Retomando el problema del efecto de cuatro métodos de ensamble A, B, C y D,

sobre el tiempo de ensamble en minutos tenemos:

Completando la tabla ANOVA, quedando de la siguiente manera

Como la hipótesis a probar es


H0: u1 = u2 = u3 = u4

H1: No todas las poblaciones tienen la misma media

El valor de F calculado por tabla cuando tenemos un nivel de significancia de

0,05 y 3 grados de libertad en el numerador y 12 grados de libertad en el


denominador es F0,05 (3,12) = 3,49

Como nuestro estadístico de prueba F (9,42) excede el valor crítico tabulado


(3,49), rechazamos la hipótesis nula y aceptamos la alterna, concluyendo que sí
hay diferencia o efecto de los métodos de ensamble en cuanto a su tiempo
promedio.

Ahora veremos el procedimiento y notación más comúnmente utilizado para la

solución de ANOVA

ANOVA
Como ya lo mencionamos el objetivo del análisis de varianza en el DCA es probar
la hipótesis de igualdad de los tratamientos con respecto a la media de
correspondiente variable de respuesta. Para probar la hipótesis dada por la
relación:

Mediante la técnica de ANOVA, lo primero es descomponer la variabilidad total de


los datos en sus dos componentes: la variabilidad debida a tratamientos y la que
corresponde al error aleatorio (equivalente al método entre y método dentro),
como se hace a continuación.

Una medida de la variabilidad total presente en las observaciones de la tabla 2.3

es la suma total de cuadrados ( SCT) dada por:


donde la SCE mide la variación dentro de tratamientos, ya que si hay mucha
variación entre las observaciones de cada tratamiento entonces Yij-Y tenderá a
ser grande en valor absoluto. En forma abreviada, esta descomposición de la
suma total de cuadrados se puede describir como:

La suma de cuadrados divididos entre sus respectivos grados de libertad se

llaman cuadrados medios. Los dos que más interesan son el cuadrado medio de

tratamientos ( CMTRET) y el cuadrado medio del error ( CME), que se denotan por:

(2.13)

sigue una distribución F con (K-1) grados de libertad en el numerador y (N-K )


grados de libertad en el denominador. De la ecuación (2.13) se deduce que si F0
es grande, se contradice la hipótesis de que no hay efecto de tratamientos; en
cambio, si F0
Toda la información necesaria para calcular el estadístico F0 hasta llegar al valor-p
se escribe en la llamada tabla de análisis de varianza (ANOVA) que se muestra en
la tabla 2.4. En esta tabla, las abreviaturas significan lo siguiente: FV= fuente de
variabilidad (efecto), SC= suma de cuadrados, GL= grados de libertad, CM=
cuadrado medio, F0 estadístico de prueba, valor-p = significancia observada

Análisis del ejemplo 1 (comparación de cuatro tipos de métodos de ensamble).

La interrogante que se planteó en el problema de la comparación entre los cuatro


tipos de métodos de ensamble fue: ¿existen diferencias entre el tiempo promedio
de los diferentes métodos de ensamble? La respuesta a esta pregunta es el
resultado de contrastar las hipótesis:
Diagrama de cajas simultáneos

Los diagramas de cajas es una herramienta para describir el comportamiento e


unos datos, y es de suma utilidad para comparar procesos, tratamientos y, en
general, para hacer análisis por estratos (lotes, proveedores, turnos). En el
resultado arrojado por Minitab se observa en la figura (figura 2.1) que el método C
parece diferente a los métodos A y B en cuanto a sus medias; la media del método
D también se ve diferente a la media del método A. Por otra parte, se observa un
poco más de variabilidad en el método C que en todos los demás. Lo que sigue es
verificar que lo que se observa en el diagrama de cajas implica diferencias
significativas entre los distintos tratamientos; por lo tanto, es necesario hacer
pruebas estadísticas porque los datos que se analizan en los diagramas de cajas
son muestras.

En general, cuando los diagramas no se traslapan es probable que los


tratamientos correspondientes sean diferentes entre sí, y la probabilidad es mayor
en la medida que los diagramas están basados en más datos. Cuando se
traslapan un poco puede ser que haya o no diferencias significativas, y en
cualquier caso es conveniente utilizar una prueba estadística para determinar
cuáles diferencias son significativas. Estas pruebas se verán en la siguiente
sección.
Análisis del ejemplo 2 (comparación de cuatro tipos de cuero). La interrogante
que se planteó en el problema de la comparación entre los cuatro tipos de cuero
fue: ¿existen diferencias entre el desgaste promedio de los diferentes tipos de
cuero? La respuesta a esta pregunta es el resultado de contrastar las hipótesis:

En el resultado arrojado por Excel, se muestra el análisis de varianza para este

ejemplo. Como el valor-p = 0,0000 es menor que la significancia prefijada a= 0,05 ,


se rechaza H0y se acepta que al menos un par de tipos de cuero tiene un
desgaste promedio diferente
ANOVA unidireccional: A; B; C; D Minitab

También podría gustarte