Está en la página 1de 33

1

UTN - FRM

CONTROL ESTADISTICO DE PROCESOS

UNIDAD 5 : Herramientas de control para la mejora continua

Mg. Ing. J. Ortigala

1. Brainstorming o lluvia e ideas.

Es una herramienta de planeamiento que se puede utilizar para obtener ideas a


partir de de los conocimientos y la creatividad de un grupo. Los departamentos y
equipos de trabajo deberían emplear la lluvia de ideas cuando:

 Deseen determinar las posible cusas y/o soluciones a los problemas.


 Planifiquen las etapas de un proyecto.
 Decidan en que problema u oportunidad de mejora, trabajar.
Se debe generar un equipo de gente para la solución del problema en particular.
Los participantes deben pertenecer a todos los sectores involucrados. Este
equipo estará coordinado por la persona designada por la alta dirección.

Se anotan todas las ideas vertidas en la reunión. El coordinador es el encargado


de seleccionar las más pertinentes y la idea que tiene mayor probabilidad de
solucionar el problema analizado.

O sea que a pesar de que es un mecanismo muy democrático, a la hora de


tomar decisiones, pesa de sobremanera la opinión y los conocimientos de la
persona encargada de coordinar el equipo.

2. La carta de verificación

Un elemento fundamental en la mejora de la calidad es contar con información


objetiva que facilite las acciones y decisiones sobre materiales, artículos, lotes,
procesos y personal.

En algunas organizaciones no se cuenta con información, en otras se tiene


exceso de la misma, datos que se encuentran archivados, son obtenidos
ineficientemente o mal usados.

En ambos casos: no se tiene información para dirigir objetiva y adecuadamente


los esfuerzos y actividades en la organización. Por ejemplo: En el área de

1
2
seguridad e higiene en una empresa que tenía registrados y documentados
todos los accidentes de los últimos tres años, se tenían datos sobre la hora, día,
área en la que habían ocurrido los accidentes, así como el tipo de lesión de las
personas involucradas, etc.

Sin embargo, no se sabía con precisión cuál era la evolución de la cantidad de


accidentes por mes, el área más problemática, el tipo de accidente más
frecuente, el tipo de lesiones con mayor incidencia, la hora y el día en que se
dan más los accidentes. En otras palabras, se contaba con datos, pero no con
información sobre el problema que permitiera al personal dirigir mejor sus
esfuerzos de prevención.

Debido a ésto se requiere de métodos eficientes para la captación de


información, para el caso se recomienda la hoja de verificación o registro

La hoja de verificación es un formato construido especialmente para recabar


datos, de tal forma que sea fácil el registro y el análisis de los mismos, lo que
permitirá facilitar el análisis en la forma de cómo influyen los principales
factores que intervienen en un problema específico.

Áreas de aplicación:
 Descripción de resultados de operación de inspección
 Examen de artículos defectuosos (identificación de razones, tipos de
fallas, áreas de procedencia, maquinaria, material u operador que
participó en la elaboración)
 Confirmar posibles causas de problemas de calidad
 Analizar o verificar operaciones y evaluar el efecto de los problemas de
mejora

La hoja de verificación que se muestra fue diseñada por un ingeniero químico de


una empresa refinadora de crudos petroleros, junto con el ingeniero responsable
de la fabricación de los tanques usados para almacenar productos. Ambos
investigaban los tipos de defectos que ocurrían en los tanques, con la intención
de mejorar el proceso. El ingeniero diseñó esta hoja de verificación a fin de
facilitar el resumen de todos los datos históricos disponibles de los defectos
relacionados con los tanques. El resumen con una orientación en el tiempo es
particularmente valioso para buscar tendencias y otros patrones importantes. Por
ejemplo, si muchos defectos ocurriesen durante el verano una posible causa que
deberá investigarse es la contratación de obreros eventuales durante un periodo
vacacional de mucho trabajo.

2
3
Defectos 2010 2011 Total
1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5
Dimensiones incorrectas 1 3 2 9 1 2 3 1 1 23
Pintura dañada por corrosión 1 1
Soldadura defectuosa 1 1 2 1 1 2 8
Falla de adherencia 1 2 3 2 1 1 10
Problema de maquinado 1 3 1 2 4 1 2 14
Vacío en piezas fundidas 1 1 2
Total 2 2 7 4 3 4 3 1 2 9 2 4 4 4 3 3 1 58

3. Gráfico de Pareto

Es una distribución de frecuencias (o histograma) de datos de atributos


ordenados por categorías. Rápidamente se identifica cuales son los problemas
más comunes. Si se quiere implementar un programa de mejora, se debería
atacar las causas de esos problemas.

La gráfica de Pareto no identifica los defectos más importantes, sino solo los que
ocurren con más frecuencia. Por ejemplo, los vacíos en piezas fundidas ocurren
muy pocas veces (dos del total) .Sin embargo los vacíos pueden dar lugar a que
los tanques se desechen, lo que ocasionaría un costo potencialmente grande,
por lo que deberían elevarse a la categoría de defectos importantes. Cuando en
la lista de defectos están mezclados los que podrían tener consecuencias en
extremo graves y otros de importancia menor, puede usarse un esquema de
ponderación para modificar los conteos de la frecuencia.

3
4

70

Porcentaje
60
100

50

40

30 50

20 23
VAR00002

10 14

Va
10

Fa
8

ci
So ad h

o
Pien
ll a
M
0 0

ld
D

nt p
aq

ad
im

de

. die
ui

.d
en

añz f
na
.I

ef

a dun
do
nc

ec
er

a d id
en

t
VAR00001

Se recomienda el uso del diagrama de Pareto:


 Para identificar oportunidades para mejorar
 Para identificar un producto o servicio para el análisis de mejora de la calidad.
 Cuando existe la necesidad de llamar la atención a los problemas o causas de
una forma sistemática.
 Al buscar las causas principales de los problemas y establecer la prioridad de las
 soluciones
 Para evaluar los resultados de los cambios efectuados a un proceso comparando
sucesivos diagramas obtenidos en momentos diferentes, (antes y después)
 Para comunicar fácilmente a otros miembros de la organización las conclusiones
sobre causas, efectos y costes de los errores.

Los propósitos generales del diagrama de Pareto:


 Analizar las causas.
 Estudiar los resultados.
 Planear una mejora continua.
 La Gráfica de Pareto es una herramienta sencilla pero poderosa al permitir
identificar visualmente en una sola revisión las minorías de características
vitales a las que es importante prestar atención y de esta manera utilizar todos
los recursos necesarios para llevar a cabo una acción de mejora sin malgastar
esfuerzos ya que con el análisis descartamos las mayorías triviales.

4
5
Algunos ejemplos de tales minorías vitales serían:
 La minoría de clientes que representen la mayoría de las ventas.
 La minoría de productos, procesos, o características de la calidad causantes
del grueso de desperdicio o de los costos de retrabajos.
 La minoría de rechazos, representan la mayoría de quejas de los clientes.
 La minoría de los operarios que está vinculada a la mayoría de partes
rechazadas.
 La minoría de problemas causantes del grueso del retraso de un proceso.
 La minoría de productos que representan la mayoría de las ganancias
obtenidas.
 La minoría de elementos que representan la mayor parte del costo de un
inventario etc.

Ejemplo de aplicación del diagrama de Pareto:


Veamos en una aplicación práctica el trazado de la gráfica de Pareto:
Un fabricante de accesorios plásticos desea analizar cuáles son los defectos más
frecuentes que aparecen en las unidades al salir de la línea de producción. Para
esto, empezó por clasificar todos los defectos posibles en sus diversos tipos:
Tipo de Defecto
Detalle del Problema
 El color no se ajusta a lo requerido por el cliente
 Ovalización mayor a la admitida
 Aparición de rebabas
 El accesorio se quiebra durante la instalación
 El accesorio requiere contrapesos adicionales
 El accesorio se aplasta durante la instalación
 Falta alguno de los insertos metálicos
 Nivel de alabeo no aceptable
 Otros defectos

Posteriormente, un inspector revisa cada accesorio a medida que sale de


producción registrando sus defectos de acuerdo con dichos tipos. Al finalizar la
jornada, se obtuvo una tabla como esta:
Tipo de defecto
Detalle
Problema Frecuencia Porcentaje Acumulado
El accesorio se aplasta durante la instalación 40 42,6
El accesorio se quiebra durante la instalación 35 79,8
Ovalización mayor a la admitida 8 88,3
El color no se ajusta a lo requerido por el cliente 3 91,5
Nivel de alabeo no aceptable 3 94,7
Aparición de rebabas 2 96,8
Falta alguno de los insertos metálicos 2 98,9
El accesorio requiere contrapesos adicionales 1 100
TOTAL 94

5
6

Podemos ahora representar los datos en un histograma como el siguiente:

Ahora resulta evidente cuales son los tipos de defectos más frecuentes. Podemos
observar que los 2 primeros tipos de defectos se presentan en el 79,8 % de los
accesorios con fallas. Por el Principio de Pareto, concluimos que: La mayor parte de los
defectos encontrados en el lote pertenece sólo a 2 tipos de defectos (los “pocos
vitales”), de manera que si se eliminan las causas que los provocan desaparecería la
mayor parte de los defectos.

Otro análisis complementario y sumamente útil e interesante, es calcular los costos de cada
problema, con lo cual podríamos construir un diagrama similar a partir de ordenar las causas
por sus costos.

Este análisis combinado de causas y costos permite obtener la mayor efectividad en la solución
de problemas, aplicando recursos en aquellos temas que son relevantes y alcanzando una
mejora significativa.

Diagramas de Pareto de fenómenos y Diagrama de Pareto de causas

El primero es un diagrama en el cual se relacionan los resultados indeseables,


como los que se presentan a continuación y se utiliza para averiguar cual es el
principal problema.

1) Calidad: defectos, faltas, fracasos, quejas, ítems devueltos, reparaciones.

2) Costo: magnitud de las pérdidas, gastos.

3) Faltantes: escasez de inventarios, demoras en los pagos, demoras en la


6
7
entrega.
4) Seguridad: accidentes, errores, interrupciones.

Diagrama de Pareto de causas:


Se utiliza para identificar las causas que originan los principales problemas.

1) Operario: Turno, grupo, edad, experiencia, capaitación, motivación


2) Máquina: Tipo de máquina, confiabilidad, condiciones de manejo
3) Materia prima: productor, lote, clase
4) Método operacional: condiciones, disposiciones, complejidad.

Sugerencias para la implementación de diagramas de Pareto

1) Pruebe varias clasificaciones y construya varias clases de diagramas de


Pareto. Podrá captar la esencia de un problema observándolo desde
varios ángulos. Es necesario tratar de encontrar varios métodos de
clasificación hasta que identifique los pocos vitales, lo cual constituye el
propósito del análisis de Pareto.
2) No es conveniente que otros represente un porcentaje de los más altos. Si
esto sucede, se debe a que los ítems para la investigación no se han
clasificado apropiadamente y demasiados ítems caen en esta categoría.
Se debe clasificar de otra manera.
3) Si los datos se pueden representar en valores monetarios, lo mejor es
dibujar diagramas de Pareto que muestren esto en el eje vertical. Si no se
aprecian adecuadamente las implicaciones financieras de un problema, la
investigación puede resultar ineficaz.
4) Si un ítem se puede solucionar fácilmente, debe afrontarse de inmediato
aunque sea relativamente de poca importancia. Aunque sea de poca
importancia, su solución servirá como ejemplo de eficiencia y la
experiencia, la información y los incentivos que los empleados pueden
obtener por este medio, serán de gran ayuda en la futura solución de
problemas.
5) No deje de hacer un diagrama de Pareto de causas. Después de haber
identificado el problema, por medio de un diagrama de Pareto de
fenómenos, para solucionarlo es necesario identificar las causas.

4 . El diagrama de causa y efecto


El diagrama de Ishikawa diseñado por Kaoru Ishikawa, es un método gráfico que
refleja la relación entre una característica de calidad (muchas veces un área
problemática) y los factores que posiblemente contribuyen a que exista

 Es un gráfico que relaciona el efecto (problema) con sus causas


potenciales

7
8
 Este gráfico, en el lado derecho, se anota el problema, y en el lado
izquierdo se especifican todas las causas potenciales, éstas se agrupan y
estratifican de acuerdo con sus similitudes en ramas o subramas.

Este gráfico, basado en la técnica de las 6 M’s, (materiales, mano de obra,


método, mediciones, máquinas, medio ambiente) se construye como:

ETAPAS PARA LA CONSTRUCCIÓN:


 Seleccionar el tema (área) de calidad que se quiere mejorar,
recomendable hacer uso del diagrama de Pareto.
 Escribir de forma clara y concreta el aspecto de calidad a la derecha del
diagrama. Trazar una flecha ancha de izquierda a derecha
 Buscar todas las causas probables, lo más concretas posibles, que
pueden afectar a las características de calidad.

Representar en el diagrama las ideas obtenidas y, analizándolo, cuestionarse si


faltan algunas otras causas aún no consideradas. Si es así, agréguelas

Decidir cuáles son las causas más importantes (por consenso o votación, como
en una lluvia de ideas)
 Decidir sobre las causas que se va a actuar
 Preparar un plan de acción para cada una de las causas a ser
investigadas o corregidas, de tal forma que se determinen las acciones
que se deben realizar

Esquema básico de un tipo de diagrama Ishikawa o diagrama causa-efecto

Una vez que un error, defecto o problema se ha identificado y aislado para su


estudio adicional, es necesario empezar a analizar las causas potenciales de ese
defecto indeseable. En situaciones donde las causas no son obvias, el diagrama
de causa y efecto es una herramienta que permite dilucidar cuales son las
causas más probables que ocasionan los problemas.

Diagrama de causa efecto. Caso: fabricación de mayonesa

8
9

El diagrama de causa-efecto para los defectos en los tanques para almacenar


productos.

9
10

Diagrama de dispersión

Es una gráfica útil para identificar una relación potencial entre dos variables. Los
datos se recolectan de a pares para las dos variables (xi , yi) y se grafican en un
gráfico cartesiano.

Gráfico de puntos para variables cuantitativas

Disposición:
Eje de abscisas: variable independiente (X)
Eje de ordenadas: variable dependiente (Y)

Frecuentemente X es una variable controlada (no aleatoria)

Un punto por cada observación (par de valores X-Y)

CARACTERÍSTICAS.

- Usado para estudiar la posible relación entre dos variables.


- Se usa para probar relaciones entre causa y efecto.
- No prueba que una variable causa la otra.
- Aclara si existe relación y la intensidad que pudiera tener la misma.
10
11

Es muy útil para:


- Determinación de causas.
- Diseño de soluciones y controles.
- Priorización de causas.

PASOS A SEGUIR PARA ELABORAR UN DIAGRAMA DE DISPERSIÓN.

1. Elaborar una teoría admisible y relevante sobre la supuesta relación entre


dos variables.
2. Obtener los pares de datos correspondientes a las dos variables.
3. Determinar los valores máximo y mínimo para cada una de las variables.
4. Decidir sobre qué eje se representará a cada una de las variables.
5. Trazar y rotular los ejes horizontal y vertical.
6. Marcar sobre el diagrama los pares de datos.
7. Rotular el gráfico.

Si se está estudiando una posible relación causa-efecto, el eje horizontal


representará la supuesta causa.

Los ejes han de ser aproximadamente de la misma longitud, determinando un


área cuadrada.

FORMAS TÍPICAS DE LOS DIAGRAMAS DE DISPERSIÓN ESTADÍSTICA

11
12

El Coeficiente de Correlación Lineal de Pearson

Es un índice estadístico que permite medir la fuerza de la relación lineal entre


dos variables. Su resultado es un valor que fluctúa entre –1 (correlación perfecta
de sentido negativo) y +1 (correlación perfecta de sentido positivo). Cuanto más
cercanos al 0 sean los valores, indican una mayor debilidad de la relación o
incluso ausencia de correlación entre las dos variables.
Su cálculo se basa en la expresión:

C ( x, y)
r
 x y

12
13

1 n
C ( x, y )   ( xi  x)( y i  y )
n i 1
Si el coeficiente de correlación de Pearson (r) es cercano a 0, las dos variables
no tienen mucho que ver entre sí (son independientes ). Si su valor es cercano a
+/-1, esto significa que la relación entre las dos variables es lineal y está bien
representada por una línea.

13
14

Ejemplo: Con frecuencia se obtienen datos bivariados cuando se usan dos


técnicas distintas para medir la misma cantidad. Por ejemplo, la concentración
de hidrógeno determinada con un método de cromatografía de gases (X), y la
concentración determinada con un nuevo método de sensor (Y ):

X 47 62 65 70 70 78 95 100 114 118 124 127 140 140 140 150 152 164 198 221
Y 38 62 53 67 84 79 93 106 117 116 127 114 134 139 142 170 149 154 200 215

14
15

Mediciones de hidrogeno

250

200

150
nuevo metodo

Mediciones
Lineal (Mediciones)
Lineal (Mediciones)

100

50

0
0 50 100 150 200 250
metodo conocido

Coeficiente de correlación: 0,98523618


Pendiente: 1,00136
Intersección eje de ordenadas: -0,9624

Diseño de experimentos

En el campo de la industria es frecuente hacer experimentos o pruebas con la


intención de resolver un problema o comprobar una idea (hipótesis), por ejemplo
hacer algunos cambios en los materiales, métodos o condiciones de operación
de un proceso, probar varias temperaturas en un reactor químico hasta encontrar

15
16
la que dé mejor resultado o crear un nuevo material con la intención de lograr
mejorar o eliminar algún problema.

Sin embargo, es común que estas pruebas o experimentos se hagan sobre la


marcha, con base en el ensayo y error, apelando a la experiencia y a la intuición,
en lugar de seguir un plan experimental adecuado que garantice una buena
respuesta a los interrogantes planteados.

El diseño estadístico de experimentos es precisamente la forma más eficaz de


hacer pruebas. El diseño de experimento consiste en determinar cuales pruebas
se deben realizar y de que manera, para obtener datos que al ser analizados
estadísticamente, proporcionen evidencias objetivas que permitan responder los
interrogantes planteados, y de esa manera clarificar los aspectos inciertos de un
proceso, resolver un problema o lograr mejoras. Algunos problemas típicos que
pueden resolverse con el diseño y el análisis de experimentos son los siguientes

1) Comparar a dos o más materiales con el fin de elegir el que mejor cumple
con los requerimientos.
2) Comparar varios instrumentos de medición para verifica si trabajan con la
misma precisión y exactitud.
3) Determinar las variables de un proceso que tienen impacto sobre una o
más características del producto final.
4) Encontrar las condiciones de operación (temperatura, velocidad,
humedad, presión) donde se reduzcan los defectos o se logre un mejor
desempeño del proceso.
5) Reducir el tiempo de ciclo del proceso.
6) Hacer el proceso insensible o robusto a oscilaciones de variables
ambiéntales.
7) Apoyar el diseño o rediseño de nuevos productos o procesos.
8) Ayudar a conocer y caracterizar nuevos materiales.

Definiciones básicas en el diseño de experimentos

Experimento:
Es un cambio en las condiciones de operación de un sistema o proceso, que se
hace con el objetivo de medir el efecto del cambio sobre una o varias
propiedades del producto, proceso o resultado. Por ejemplo, en un proceso
químico se pueden probar diferentes temperaturas y presiones y medir el cambio
observado en el rendimiento del proceso.

Unidad experimental

La unidad experimental es la pieza(s) o muestra(s) que se utiliza para generar un


valor que sea representativo del resultado del experimento o prueba. En cada
diseño de experimentos es importante definir de manera cuidadosa la unidad
experimental, ya que ésta puede ser una pieza o muestra de una sustancia o un
conjunto de piezas producidas, dependiendo del proceso que se estudia. Por
ejemplo, si se quiere investigar alternativas para reducir el porcentaje de piezas
16
17
defectuosas, fabricadas con una mezcla de PVC y polipropileno, en un
proceso que produce muchas piezas en un lapso corto de tiempo, es claro que
no sería muy conveniente que la unidad experimental fuera una sola pieza, en la
cual se vea si en una condición experimental estaba defectuosa o no. Aquí la
unidad experimental será cierta cantidad de piezas que se producen en las
mismas condiciones experimentales.

Variables, factores y niveles

En todo proceso intervienen distintos tipos de variables o factores.

Variables de respuesta: a través de estas variables se conoce el efecto o los


resultados de cada prueba experimental, por lo que pueden ser características
de la calidad de un producto y/o variables que miden el desempeño de un
proceso. El objetivo de muchos estudios experimentales es encontrar la forma de
mejorar las variables de respuesta. Por lo general, estas variables se denotan
con la letra Y

Factores controlables: son variables de proceso o características de los


materiales experimentales que se pueden fijar en un nivel dado. Son variables de
entrada que usualmente se controlan durante la operación normal del proceso y
se distinguen porque existe la manera o el mecanismo para cambiar o manipular
su nivel de operación. Por ejemplo, si en un proceso se usa agua a 60 ºC,
entonces debe existir algún mecanismo que permita fijar la temperatura del agua
dentro de algún rango de operación. Algunos factores que generalmente se
controlan son: temperatura, tiempo de residencia, cantidad de cierto reactivo,
tipo de reactivo, método de operación, velocidad, presión etc. A los factores
controlables también se los llama variables de entrada, condiciones del proceso,
variables de diseño, parámetros del proceso, las X de un proceso o simplemente
factores.

Factores no controlables o de ruido: son variables y características de


materiales y métodos que no se pueden controlar durante el experimento o la
operación normal del proceso. Por ejemplo, algunos factores que suelen ser no
controlables son: las variables ambientales (luz, humedad, temperatura,
partículas, ruido, etc), el ánimo de los operadores, la calidad del material que se
recibe del proveedor. Un factor que ahora es no controlable puede convertirse en
controlable cuando se cuenta con el mecanismo o la tecnología para ello.

Factores estudiados: son las variables que se investigan en el experimento,


respecto de cómo influyen o afectan a las variables de respuesta. Los factores
estudiados pueden ser controlables o no controlables, a estos últimos quizá fue
posible y de interés controlarlos durante el experimento. Para que un factor
pueda ser estudiado es necesario que durante el experimento, se haya probado
en al menos, dos niveles o condiciones.

Niveles y tratamientos: los diferentes valores que se asignan a cada factor


estudiado en un diseño experimental se llaman niveles. Una combinación de
17
18
niveles de todos los factores estudiados se llama tratamiento o punto de
diseño. Por ejemplo, si en un experimento se estudia la influencia de la
concentración y la temperatura, y se decide probar cada una en dos niveles,
entonces cada combinación de niveles (concentración, temperatura) es un
tratamiento. En este caso habría cuatro tratamientos.

Nivel de Nivel de Tratamiento y


concentración temperatura
1 1 1
2 1 2
1 2 3
2 2 4

De acuerdo a estas definiciones, en el caso de experimentos con un solo factor,


cada nivel es un tratamiento.

Error aleatorio y error experimental: siempre que se realiza un estudio


experimental, parte de la variabilidad observada en la respuesta no se podrá
explicar por los factores estudiados. Esto es, siempre habrá un remanente de
variabilidad que se debe a causas comunes o aleatorias, que generan la
variabilidad natural del proceso. Esta variabilidad constituye el llamado error
aleatorio (incertidumbre estadística). Por ejemplo, será parte de este error
aleatorio, el pequeño efecto que tienen los factores que no se estudiaron,
siempre y cuando se mantenga pequeño o despreciable, así como la variabilidad
de las mediciones hechas bajo las mismas condiciones. El error aleatorio
también comprende todos los errores que el experimentador comete durante los
experimentos, y si éstos son graves, mas que error aleatorio hablaremos de error
experimental.

Análisis: la técnica estadística central en el análisis de los experimentos


diseñados, es el análisis de la varianza.

Experimentos con un solo factor

En Probabilidad y Estadística de segundo año vimos los métodos para comparar


dos tratamientos o condiciones (poblaciones o procesos). En este curso
ampliaremos el estudio y comenzaremos realizando comparaciones para más de
dos tratamientos o poblaciones.

En una industria química se desea investigar la influencia de la temperatura en el


rendimiento de un proceso químico. Las corridas se realizarán en cuatro
temperatura distintas. Esto se hace con el fin de estudiar si alguna de las
temperaturas elegida es mejor que la que se estaba usando hasta el momento.

18
19
Por lo general el interés del investigador está centrado en comparar los
tratamientos en cuanto a sus medias poblacionales, sin olvidar que también es
importante compararlos con respecto a sus varianza. Así desde el punto de vista
estadístico, la hipótesis fundamental a probar cuando se comparan varios
tratamientos es:

H o : 1   2  ...   k   (1)

H1 : 1   j para algún i  j

Tratamiento: una combinación de niveles de cada uno de los factores


estudiados

Ejemplo: un fabricante de butilglicol desea disminuir el tiempo de una reacción


de síntesis, la cual se puede hacer con uno de cuatro tipos de catalizadores.

Se prueban en orden aleatorio 24 lotes, seis de cada tipo de catalizador. Los


datos, en minutos, sobre el tiempo de reacción de cada tipo de catalizador se
muestran en la tabla

Tipo de Observaciones Promedio


catalizador
A 264 260 258 241 262 255 256,7
B 208 220 216 200 213 206 209,8
C 220 263 219 225 230 228 230,8
D 217 226 215 227 220 222 220,7

Teoría general

Supongamos que se tienen k poblaciones o tratamientos, independientes y con


medias desconocidas 1,  2,... k ; así como varianzas también desconocidas.
Las poblaciones pueden ser k métodos de producción, k tratamientos, k grupos,
etc.

En el caso de que los tratamientos tengan efecto, las observaciones Yij de la


tabla se podrán describir con el modelo estadístico lineal dado por:

19
20
Yij     i   ij

Donde  es el parámetro de escala común a todos los tratamientos, llamada


media global,  i es un parámetro que mide el efecto del tratamiento i y  ij es el
error atribuible a la medición Yij . Este modelo implica que en el diseño
completamente al azar actuarían a lo sumo dos fuentes de variabilidad: los
tratamientos y el error aleatorio. La media global  no se la considera una
fuente de variabilidad.

Si la respuesta media de un tratamiento particular i es muy diferente a la


respuesta media global  , es un síntoma de que existe un efecto de dicho
tratamiento. La diferencia que existen entre la media global y las medias
particulares deben ser expuestas a un análisis ANOVA para saber si son
estadísticamente significativa.

ANOVA para el diseño completamente al azar

El análisis de la varianza (ANOVA) es la técnica central en el análisis de datos


experimentales. La idea general es separar la variación total en las partes con
las que contribuye cada fuente de variación en el experimento. En nuestro caso,
se separa la variabilidad debida a los tratamientos y la debida al error. Cuando la
primera predomina claramente sobre la segunda, es cuando se concluye que los
tratamientos tienen efecto, dicho de otra manera las medias son diferentes.
Cuando los tratamientos no predominan, es decir que contribuyen igual que el
error, se concluye que las medias son iguales.

Notación de puntos
Sirve para representar de manera abrevia cantidades numéricas que se pueden
calcular a partir de los datos experimentales, donde Yij representa la j-esima
observación en el tratamiento i.

Las cantidades de interés son:

Yi. = Suma de las observaciones del tratamiento i


Y i. = media de las observaciones del i-esimo tratamiento

Y .. = suma total de las N= n1  n2 ...  nk mediciones

Y .. = Media global o promedio de todas las observaciones


Para probar la hipótesis dada por la ecuación 1 mediante la técnica de ANOVA,
lo primero es descomponer la variabilidad total de los datos en sus dos

20
21
componentes: la variabilidad debida al tratamiento y la que corresponde al
error aleatorio.

Una medida de la variabilidad total presente en las observaciones de la tabla es


la suma total de cuadrados dada por,

2
 
k n 2 k n 2 Y..
SCT    Yij  Y ..    Yij 
i 1 j 1 i 1 j 1 N

Se suma y resta dentro del paréntesis la media del tratamiento i ( Y i. )

  
2

k n
SCT     Yij  Y i.  Y i.  Y .. 
i 1 j 1  

Desarrollando el cuadrado

 2 k ni
  
k 2
SCT   ni Y i.  Y    Yij  Y i.
i 1 i 1 j 1

Donde el primer componente es la suma de los cuadrados de los tratamientos


( SCTRAT ) y el segundo es la suma de cuadrados del error ( SCE ). Al observar
con detalle estas sumas de cuadrado se aprecian que la SCTRAT mide la
variación o diferencias entre tratamientos, ya que si estos son muy diferentes
entre si, entonces la diferencia Y i.  Y .. tenderá a ser grande en valor absoluto.
Mientras que el segundo término ( SCE ) mide la variación dentro de
tratamientos, ya que si hay mucha diferencia entre las observaciones de cada
tratamiento, entonces Yij  Y i. tenderá a ser grande en valor absoluto. En forma
abreviada, esta descomposición de la suma total de cuadrados se puede escribir
como:

21
22
SCT  SCTRAT  SCE

Nótese que SCTRAT también puede escribirse como:

k Y2 Y2
SCTRAT   i.  ..
i 1 ni N

Como hay en total N observaciones, la SCT tiene N -1 grados de libertad. Como


hay k tratamientos o niveles del factor de interés (A, B, C, D), SCTRAT tiene k -
1 grados de libertad, mientras que la SCE tiene N – k grados de libertad.

Las sumas de los cuadrados divididas entre sus respectivos grados de libertad
se llaman cuadrados medios. Los dos que más interesan son el cuadrado medio
de tratamientos y el cuadrado medio del error, que se denotan por

SCTRAT SC E
CM TRAT  CM E 
k 1 N k

Cuando la hipótesis nula es verdadera, ambos cuadrados medios estiman la


varianza  2 . Con base en este hecho se construye el estadístico de prueba
como sigue: se sabe que SCE y SCTRAT son independientes, por lo que

SCE /  2 y SCTRAT /  2 son dos variables aleatorias independientes con


distribución ji-cuadrada con N – k y k – 1 grados de libertad, respectivamente.
Entonces bajo el supuesto de que la hipótesis nula es verdadera, el estadístico

CM TRAT
F o
CM E

Sigue una distribución F con k – 1 grados de libertad en el numerador y N – k


grados de libertad en el denominador. Si Fo es grande, se debe rechazar la
hipótesis nula, es decir que se rechaza que los tratamientos sean todos iguales,
en cambio si Fo es pequeño se confirma la validez de H o . Es decir que elegido
un  determinado, si el valor p es más pequeño que  , se rechaza la hipótesis
nula.

Toda la información necesaria para calcular el estadístico Fo hasta llegar al


valor
p se escribe en la llamada tabla de análisis de varianza (ANOVA)

22
23
Tabla ANOVA

FV SC GL CM Fo Valor
p
Tratamientos k 1
k Yi2. Y..2 CM TRAT 
SCTRAT CM TRAT
SCTRAT    k 1 CM E
n
i 1 i N
Error SCE  SCT  SCTRAT N k SC E
CM E 
N k
Total N 1
k ni 2 Y..2
SCT    Yij 
i 1 j 1 N

Cálculos

Y1. 264  260  258....1540


Y2.  1263
Y3.  1385
Y4.1327
Y..5515

ni = cantidad de réplicas por tratamiento= 6 k= cantidad de tratamientos= 4

N = número total de mediciones= 24

(1540 ) 2  (1263) 2  (1385 ) 2  (1327 ) 2 (5515 ) 2


SCTRAT    7019
6 24
7019
CMTRAT   2339
3

k ni 2 Y..2 2 2 2 (5515) 2
SCT    Yij   (264)  (260)  ...  (222)   9076
i 1 j 1 N 24

SCE  SCT  SCTRAT  9076  7019  2057

23
24

SCE 2057
CM E    102,85
N k 20

CM TRAT 2339
F o   22,74
CM E 102,85

Con   0,05; obtenemos el valor de f de tabla con 3 grados de libertad en el


numerador y 20 grados de libertad en el numerador.

f 0,05;3;20  3,1

Como Fo es mucho mayor que f 0,05;3;20 se rechaza H o y se concluye que hay


diferencia entre los distintos tipos de catalizadores.

También calculamos el valor P que es la probabilidad de que f  22,74 . Esto es


igual a cero, lo que indica que rechazar H o ha sido una idea fuerte.

Comparaciones o pruebas de rangos múltiples


Después de que se rechazó la hipótesis nula en un análisis de varianza, es
necesario ir a detalle y ver cuales tratamientos son diferentes.

Comparación de parejas de medias de tratamientos

Cuando no se rechaza la hipótesis nula, el objetivo del experimento está cubierto


y la conclusión es que los tratamientos no son diferentes. Si por el contrario se
rechaza H o , es necesario investigar cuales tratamientos resultaron diferentes o
cuales provocaron la diferencia. Estos interrogantes se responden probando la
igualdad de todos los posibles pares de medias.

Método LSD (diferencia mínima significativa)


El problema consiste en probar la igualdad de todos los posibles pares de
medias con la hipótesis:

H o : i   j

H1 : i   j

Para toda i  j . Para k tratamientos se tienen k (k  1) / 2 pares de medias. Si k=4


existen 6 pares de medias que hay que comparar. El estadístico de prueba para

24
25
cada una de las 6 hipótesis posibles es la correspondiente diferencia en valor
absoluto entren sus medias muestrales

 1 1 
Y i.  Y j.  t / 2, N  k CM e    LSD
 ni n j 
 

Donde el valor de t / 2, N  k se lee en las tablas de la distribución t de student


con N - k grados de libertad que corresponden al error; ni y n j , son el número
de observaciones para los tratamientos i y j, respectivamente. La cantidad LSD
se llama diferencia minima significativa, ya que es la diferencia mínima que debe
existir entre dos medias muestrales para considerar que los tratamientos
correspondientes son significativamente diferentes. Así cada diferencia de
medias muestrales en valor absoluto que sea mayor que el numero LSD se
declara significativa. Si todos los tratamientos tienen el mismo número de
réplicas, la cantidad LSD se reduce a:

LSD  t / 2, N  k 2CM e / n

Se prueban las seis posibles pares de hipótesis

Ho :  A  B vs H1 :  A   B

H o :  A  c vs H1 :  A   c

Ho :  A  D vs H1 :  A   D

H o :  B  C vs H1 :  B  C

Ho : B  D vs H1 :  B   D

H o : C   D vs H1 : C   D

Buscamos el valor de t 0,025 con 20 grados de libertad = 2,085

2.102,85
LSD  t / 2, N  k 2CM e / n  2,085  12,20
6
25
26

Diferencia Diferencia muestral Decisión


poblacional
 A  B 256,7-209,8=46,9 Significativa
 A  c 256,7-230,8=25,9 Significativa
 A  D 256,7-220,7=36 Significativa
 B  C 209,8-230,8=21 Significativa
B  D 209,8-220,7=10,9 No Significativa
C   D 230,8-220,7=10,1 No Significativa

Conclusiones: la diferencia de A con B, C y D es significativa por lo tanto


decimos que con A la reacción demandó mas tiempo para completarse que los
otros tres. La diferencia entre B y C también es significativa por lo que afirmamos
que con B se necesita menos tiempo que con C. La diferencia entre B y D no es
significativa por lo que con ambos se tarda lo mismo. Los catalizadores B y D
son los mejores y entre ambos no hay diferencias.

Aplicación:

En un articulo de Solid State Technology (mayo 2008) se describe un


experimento para determinar el efecto de la velocidad de flujo del C 2 F6 sobre
la uniformidad del grabado químico en una oblea de silicio usada en la
fabricación de circuitos integrados. Se prueban tres velocidades de flujo y se
observa la uniformidad resultante (en por ciento) en seis unidades de prueba con
cada velocidad de flujo. Los datos se muestran en la tabla siguiente

Flujo de Observaciones
C 2 F6
1 2 3 4 5 6
A=125 2,7 2,6 4,6 3,2 3 3,8
B=160 4,6 4,9 5 4,2 3,6 4,2
C=200 4,6 2,9 3,4 3,5 4,1 5,1

Y A. 3,32

Y B  4,42

Y C  3,93

26
27

a) La velocidad del flujo afecta la uniformidad del grabado químico? Un


porcentaje menor es mejor para la calidad del proceso.

k Y2 Y2
SCTRAT   i.  ..
i 1 ni N

Y12. 396
Y1. 2,7  2,6 4,63,233,819,9 Y12.  396   66
6 6

Y2. 4,6  4,9  5  4,2  3,6  4,2  26,5 Y22.  702,25

Y22. 702 ,25


  117 ,04
6 6

2 Y32. 557
Y3.  4,6  2,9  3,4  3,5  4,1  5,1  23,6 Y  557   92,8
3. 6 6

Y..2  19,9  26,5  23,6  70 2  4900 4900/24=204,17

k Yi2. Y..2
SCTRAT     66  117,04  92,8  204,17  71,67
i 1 ni N

SCTRAT 71,67
CM TRAT    23,89
k 1 3

27
28
k ni 2 Y 2
SCT    Yij  ..  2,7 2  2,6 2  4,6 2  .....5,12  204 ,17 
i 1 j 1 N

283,5  204 ,17  79,33

SC E  SCT  SCTRAT  79,33  71,67  7,66

SC E 7,66
CM E    0,51
N  k 18  3

CM TRAT 23,89
F o   46,84
CM E 0,51

El valor de la distribución f para alfa = 0,05 ; con k – 1= 2 grados de libertad en el


numerador y N- k = 15 grados de libertad en el denominador = 3,68

Como F0 es mucho mayor que el valor crítico, se rechaza H0 y se acepta que hay
diferencias estadísticamente significativas entre las tres temperaturas.

Método LSD (diferencia mínima significativa)

LSD  t / 2, N  k 2CM e / n  t0,025;15 2.0,51 / 6  2,13.0,41  0,88

Diferencia Diferencia muestral Decisión


poblacional
 A  B 3,32 - 4,42 = 1,1 Significativa
 A  c 3,32 - 3,93 = 0,61 No Significativa
 B  C 4,42 - 3,93 = 0,49 N0 Significativa

Verificación de los supuestos del modelo

La validez de los resultados obtenidos en cualquier análisis de varianza queda


supeditado a que los supuestos del modelo se cumplan. Eso supuestos son:
normalidad, varianza constante (igual varianza de los tratamientos) e
28
29
independencia. Esto es, la respuesta (Y) se debe distribuir de manera normal,
con la misma varianza en cada tratamiento y las mediciones deben ser
independientes. Estos supuestos sobre Y se traducen en supuestos sobre el
término error (  ) en el modelo. Es una práctica común utilizar la muestra de
residuos para comprobar los supuestos del modelo, ya que si los supuestos se
cumplen, los residuos se pueden ver como una muestra aleatoria de una
distribución normal con media cero y varianza constante. Los residuos, eij , se
definen como la diferencia entre la respuesta observada ( Yij ) y la respuesta
predicha por el modelo ( Yˆij ) lo cual permite hacer un diagnostico mas directo de
la calidad del modelo, ya que su magnitud señala que tan bien describe a los
datos el modelo.

Recordemos el modelo en el que se basa el diseño completamente aleatorizado


(DCA)

Yij     i   ij
Donde Yij es el j-eimo dato en el tratamiento i;  es la media global,  i es el
efecto del tratamiento i y  ij representa el error asociado con la observación Yij

El residuo asociado de la observación Yij está dado por

eij  Yij  Y i.

Para probar los supuestos del modelo, se prueban las condiciones de los
residuos.

Estos supuestos son:


1. Los eij siguen una distribución normal con media cero.

2. Los eij son independientes entre si.

3. Los residuos de cada tratamiento tienen la misma varianza 2

Prueba de Shapiro-Wilks para normalidad

Consideramos una muestra aleatoria de datos x1, x2, ….xn que proceden de cierta
distribución desconocida denotada por f(x). Se quiere verificar si dichos datos
fueron generados por un proceso que tiene una distribución de probabilidad
normal, mediante las hipótesis estadísticas:

H0 : los datos proceden de una distribución normal


HA : los datos no proceden de una distribución normal
29
30

Los pasos para la prueba de Shappiro-Wilks son:


1) se ordenan los datos de menor a mayor. Denotemos los datos por X(1),
X(2),
…X(n)
2) De la tabla correspondiente se obtienen los coeficientes a 1, a2,…ak, donde
k
es igual a n/2
3) se calcula el estadístico W definido como

2
1 k 
W   ai ( X (n i 1)  X (i ) 
2
(n  1) S i 1 

4) Si el estadístico W es mayor que su valor crítico al nivel α seleccionado de


la
tabla, se rechaza la normalidad de los datos.

Cuero Observado Predicho Residuo Cuero Observado Predicho Residuo


Yij Y i. eij Y Y Yij Y i. eij Y Y
ij i. ij i.
A 264 256,7 7,3 A 262 256,7 5,3
C 220 230,8 -10,8 D 220 221,2 -1,2
B 208 210,5 -2,5 A 255 256,7 -1,7
B 220 210,5 9,5 B 200 210,5 -10,5
A 260 256,7 3,3 D 222 221,2 0,8
A 258 256,7 1,3 B 213 210,5 2,5
D 217 221,2 -4,2 A 241 256,7 -15,7
C 263 230,8 32,2 C 228 230,8 -2,8
D 229 221,2 7,8 B 206 210,5 -4,5
C 219 230,8 -11,8 C 230 230,8 -0,8
B 216 210,5 5,5 D 215 221,2 -6,2
C 225 230,8 -5,8 D 224 221,2 2,8

1) Se ordenan los datos de menor a mayor


200 206 208 213 215 216 217 219 220 220 220 222
224 225 228 229 230 241 255 258 260 262 263 264

30
31
2) coeficientes de tabla

ai X (ni 1)  X (i) ai ( X (ni 1)  X (i)


0,4493 264 – 200 = 64 28,75
0,3098 263 - 206 = 57 17,66
0,2554 262 – 208 = 54 13,79
0,2145 260 – 213 = 47 10,1
0,1807 258 – 215 = 43 7,8
0,1512 255 – 216 = 39 5,9
0,1245 241 – 217 = 24 2,99
0,0997 230 – 219 = 11 1,1
0,0764 229 - 220 = 9 0,68
0,0539 228 – 220 = 8 0,4312
0,0321 225 - 220 = 5 0,16
0,0107 224 – 222 = 2 0,02

3)

2
1k 
W   ai ( X (n i 1)  X (i ) 
2
(n  1) S i 1 

W
1
2
89,382  0,86
(24  1)20

De la Tabla de cuantiles, para n=24; se lee el valor critico para un alfa de 0,05
Valor critico= 0,984

Como W es menor que el valor crítico, se acepta la hipótesis que los datos
proceden de una distribución normal.

Prueba de Barlett para homogeneidad de varianzas

Supongamos que se tienen k poblaciones o tratamientos independientes, cada


una con distribución normal, donde las varianzas son desconocidas. Se quiere
probar la hipótesis de igualdad de varianzas dada por:

H o : 12   22  ...   2   2
k

31
32

H A :  i2   2j para algún i j

El estadístico de prueba para la hipótesis planteada es

q
 o2  2,3026
c

Donde

k
q  ( N  k ) log10 S 2p   (ni  1) log10 Si2
i 1

Donde Si2 es la varianza muestral del tratamiento i

1  k 
c 1  (ni  1) 1  ( N  k ) 1 
3(k  1)  i 1 

k
 (ni  1) Si2
S 2p  i 1
N k

Si q es cero o negativo, se considera que la H o no puede rechazarse.

Cálculos:

32
33
k
 (ni  1) Si2
5.8,29  5.7,26  5.16,34  5.4,79 183,4
S 2p  i 1    9,17
N k 24  4 20

k
q  ( N  k ) log10 S 2p   (ni  1) log10 Si2  (24  4).log10 9,17  (5.0,92  5.0,86  5.1,21  5.0,68)
i 1

19,24 – 18,35=0,89

1  k 
c  1  (ni  1) 1  ( N  k ) 1   1,083
3(k  1)  i 1 

q 0,89
 o2  2,3026  2,3026  1,89
c 1,083

El valor crítico para una distribución chi-cuadrado con K - 1 = 4 – 1 = 3 grados de


libertad y alfa 0,05; es 7,81. Por lo que no puede rechazarse la hipótesis nula y
se concluye que todas son iguales.

33

También podría gustarte