Documentos de Académico
Documentos de Profesional
Documentos de Cultura
El “Control Estadístico del Proceso” nació a finales de los años 20 en los Bell Laboratories. Su creador fue W. A.
Shewhart, quienen su libro “Economic Control of Quality of Manufactured Products” (1931) marcó la pauta que
seguirían otros discípulos distinguidos (Joseph Juran, W.E. Deming, etc.).
Sobre este libro han pasado más de 70 años y sigue sorprendiendo por su frescura y actualidad. Resulta admirable el
ingenio con el que plantea la resolución de problemas numéricos pese a las evidentes limitaciones de los medios de
cálculo disponibles en su época. Lamentablemente, a Shewhart se le recuerda “solo por las gráficos de control”
(X-R, etc.). Por si fuera poco, a menudo se emplean estos gráficos de modo incorrecto o se desconoce las limitaciones de
los mismos. Normalmente, la utilización incorrecta de los gráficos de control dimana del desconocimiento de los
fundamentos estadísticos que los sustentan.
Esta variabilidad es claramente indeseable y el objetivo ha de ser reducirla lo más posible o al menos mantenerla dentro
de unos límites.
C. E. P. Dado que su aplicación es en el momento de la fabricación, puede decirse que esta herramienta contribuye a la
mejora de la calidad de la fabricación .Permite también aumentar el conocimiento del proceso, lo cual en algunos casos
puede dar lugar a la mejora del mismo.
Proceso es un conjunto de actividades que convierte entradas en salidas o resultados. Más específicamente, un proceso
es una combinación única de máquina, herramientas, métodos, materiales y gente que alcanza un resultado en
productos, software o servicios: el chip de un circuito, un programa de cómputo o las respuestas que se brindan a los
clientes de una línea de ayuda.
Pá gina 1 de 21
Estas técnicas pueden hacer una contribución importante en el logro de objetivos de calidad. En la mayoría de las
organizaciones, las técnicas de control de proceso estadístico son esenciales. Para ayudar a garantizar una aplicación
exitosa y continua de estos conceptos en la realidad de los bajos presupuestos operativos, las técnicas de control
estadístico del proceso no pueden convertirse en un fin en sí mismas.
Los gerentes de operaciones pragmáticos piden que cada aplicación potencial muestre una oportunidad tangible para
obtener importantes beneficios, situación que los profesionales de la calidad no deben olvidar nunca.
Uno de los principales objetivos es detectar las causas especiales o asignables de variación en un proceso, mediante el
análisis de datos tanto del pasado como del futuro. Conocer el significado de las causas especiales es esencial para
entender el concepto de la gráfica de control.
Idealmente, sólo debería haber causas comunes en los procesos, porque representan un proceso predecible y estable
que lleva a un mínimo de variación. Se dice que un proceso que opera sin causas especiales de variación está en “un
estado de control estadístico”.
En una gráfica de control para dicho proceso, todos los puntos de los datos se encuentran dentro de los límites de
control estadístico. El objetivo de una gráfica de control no es alcanzar un estado de control estadístico como un fin en
sí mismo, sino reducir la variación.
La gráfica de control distingue entre las causas comunes y especiales de variación mediante la elección de límites de
control (figura 20.4). Estos se calculan utilizando las leyes de probabilidad para que se presuma que las causas
altamente improbables de variación se deben a causas especiales y no aleatorias. Cuando la variación excede los límites
de control estadístico, es señal que las causas especiales han entrado al proceso y este debe ser estudiado para
identificar estas causas de variación excesiva.
La variación aleatoria dentro de los límites de control significa que solo hay causas comunes (aleatorias): la cantidad de
variación se puede estabilizar y se deben evitar ajustes menores al proceso. Cabe destacar que una gráfica de control
detecta la presencia de una causa especial pero no la determina; esta tarea debe ser manejada por una investigación
subsecuente del proceso.
Pá gina 2 de 21
VENTAJAS DEL CONTROL ESTADÍSTICO
Existe un estado del control estadístico en el que solo hay causas comunes de variación en un proceso. Esta condición
presenta diversas ventajas importantes:
1) el proceso es estable, lo que hace posible predecir su comportamiento, al menos en el corto plazo.
2) el proceso tiene una identidad en términos de una determinada serie de condiciones necesarias para hacer
predicciones. Las predicciones de cualquier tipo deben ser vinculadas a una serie de condiciones asumidas.
Para los procesos de manufactura y negocios, estas condiciones están representadas por un estado de control
estadístico. Idealmente, se debe seguir un proceso de control estadístico antes de sacar conclusiones de
cualquier serie de datos.
3) Un proceso de control estadístico opera con menos variabilidad que uno que tenga causas especiales. Una
menor variabilidad se ha convertido en una herramienta importante de competencia.
4) Un proceso que posea causas especiales es inestable, y la variación excesiva puede ocultar el efecto de los
cambios introducidos para lograr una mejora. La eliminación de ciertas causas especiales y la consiguiente
rediagramación de las gráficas de control también puede revelar que aún existen causas especiales ocultas
anteriormente.
5) Saber que un proceso tiene control estadístico es útil para que los trabajadores que laboren en él. Se dice que
cuando los datos caen dentro de los límites de control estadístico, no se deben hacer ajustes. Hacer dichos
ajustes incrementa la variabilidad, no la reducirá. Por otra parte, las gráficas de control ayudan a evitar el
subajuste, ya que los puntos que están fuera de control señalan la presencia de causas especiales.
6) Saber que un proceso tiene control estadístico ofrece una dirección a quienes intentan hacer reducciones a
largo plazo en la variabilidad del proceso. Para reducir este, se debe analizar y cambiar el sistema del proceso,
en lugar que la dirección espere que sean los trabajadores, que llevan el proceso, quienes reduzcan la
variabilidad por ellos mismos.
7) Un análisis de control estadístico, que incluye la diagramación en el orden de producción, permitirá fácilmente
identificar las tendencias en el tiempo que permanecen ocultas por otras síntesis de datos tales como lo
histogramas.
8) Un proceso estable (como se verifica en el control estadístico) que también cumple con las especificaciones del
producto ofrece pruebas de que el proceso tiene condiciones que, de mantenerse, resultaría en un producto
aceptable. Dichas evidencias son necesarias antes de que un proceso se transfiera de la etapa de producción a
la producción en lleno.
Estas ventajas ayuda a los objetivos principales del C.E.P. que son: reducir la variación del proceso y evitar problemas. La
prevención real se logra teniendo procesos capaces que se mantenga en un estado de control estadístico.
DECIDIR SOBRE LA LÍNEA CENTRAL QUE SE USARA Y LA BASE PARA EL CÁLCULO DE LOS LÍMITES.
La línea central puede ser el promedio de los datos anteriores o un promedio deseado (como un valor estándar) los
valores se establecen normalmente en ±3σ. Pero se pueden elegir otros múltiplos para diferentes riesgos estadísticos.
Mejor aún, los instrumentos tendrían que estar diseñados para así registrar e indicar al mismo tiempo. El registro de
datos se puede simplificar mediante un diseño ingenioso de los datos o de las hojas de registro. Las condiciones de
trabajo también son un factor.
Calcular los límites de control y brindar instrucciones específicas para la interpretación de resultados y las acciones que
van a emprender diversos miembros del personal de producción. Las fórmulas para el límite de control de los tres tipos
básicos de diagrama de control se presentan en la tabla 20.2. Estas fórmulas se basan en y emplean una línea central de
igual al promedio de los datos usados al calcular los límites de control.
Schilling (1990) hace un registro del ciclo de vida de las aplicaciones de un diagrama de control (tabla 20.3). Una
determinada aplicación puede usar distintos diagramas de control. Cabe destacar que, en la etapa de “retiro”, el control
estadístico se ha logrado, y alguno de los diagramas se reemplazan por revisiones de puntos.
En cualquier proceso productivo resulta conveniente conocer en todo momento hasta qué punto nuestros productos
cumplen con las especificaciones preestablecidas. Como ya comentamos en el capítulo anterior, podemos decir que la
calidad de un producto tiene dos grandes “enemigos”: (1) las desviaciones con respecto al objetivo especificado (falta
de exactitud), y (2) una excesiva variabilidad respecto a los valores deseables (falta de precisión).
La idea consiste en extraer muestras de un proceso productivo que se encuentra activo y, a partir de las mismas,
generar gráficos que nos permitan tanto estudiar la variabilidad del mismo como comprobar si los productos obtenidos
cumplen o no con las especificaciones preestablecidas. En caso de apreciar en tales gráficos tendencias no aleatorias o
bien muestras que se sitúen más allá de los límites de control consideraremos que el proceso está fuera de control. Si
así ocurre, estaremos interesados en averiguar las causas especiales que afectan al proceso.
En un gráfico de control se representa gráficamente una característica de calidad T, medida o calculada a partir de
muestras del producto, en función de las diferentes muestras. La gráfica tiene una línea central que simboliza el valor
medio de la característica de calidad.
Finalmente, otras dos líneas (los límites superior e inferior de control) flanquean a la anterior a una distancia
determinada. Estos límites son escogidos de manera que si el proceso está bajo control, casi la totalidad de los puntos
muéstrales se halle entre ellos.
Sí, un punto se encuentra fuera de los límites de control se interpreta como una evidencia de que el proceso está fuera
de control. Además, incluso si todos los puntos se hallan comprendidos entre los límites de control, pero se comportan
Pá gina 5 de 21
de manera sistemática o no aleatoria, también tendríamos un proceso fuera de control (veremos cómo estudiar la
existencia de tales patrones no aleatorios mediante los llamados test para causas especiales)
La determinación de los límites de control se basa en conceptos y resultados estadísticos: supongamos, p.e., que
estamos interesados en “controlar” la media µ de una variable aleatoria X cuya distribución tiene una desviación
estándar σ (µ y σ constantes durante el proceso). Sabemos (por el TCL) que, para un tamaño muestra n grande, la
distribución de las medias muéstrales será aproximadamente normal con media igual a µ y desviación estándar igual a
σ/√n. De este hecho se deduce que aproximadamente el 99,7% de las medias muéstrales estarán contenidas en el
intervalo µ ± 3 * σ/√n, intervalo que viene definido por los límites de control. Este sencillo razonamiento es la base para
la construcción de todos los gráficos de control.
Observar que, como el intervalo anterior depende de n, si trabajamos con muestras de distintos tamaños los límites de
control no formarán una línea recta, pues la distancia que les separa de la línea central aumentará conforme n
disminuya (serán límites “escalonados”).
Observar que la selección de los límites de control equivale pues a determinar la región crítica para probar la hipótesis
nula Ho de que el proceso está bajo control estadístico: Alejando dichos límites de la línea central se reduce α (o
probabilidad de cometer un error de tipo I, i.e.: que un punto caiga fuera de los límites de control sin que haya una
causa especial), pero también se eleva con ello β (o riesgo de cometer un error tipo II, i.e.: que un punto caiga entre
dichos límites cuando el proceso se encuentra en realidad fuera de control).
En general, para un α determinado, cuanto más grande sea el tamaño muestral n, tanto más “sensible” será el gráfico a
la hora de detectar pequeños cambios en el proceso (i.e., para α fijo, a mayor n mayor será la potencia del contraste 1-
β).
En los gráficos de control por variables es posible medir la característica de calidad a estudiar. En estos casos conviene
describir la característica de calidad mediante una medida de tendencia central (usualmente la media maestral) y una
medida de su variabilidad (usualmente el rango o la desviación estándar).
Los gráficos de control por variables son más “sensibles” que los gráficos de control por atributos, razón por la cual son
capaces de “avisarnos” de posibles problemas de calidad incluso antes de que éstos sean ya relevantes.
Pá gina 6 de 21
Los gráficos de control por atributos tienen la ventaja de sintetizar más rápido toda la información referida a diferentes
aspectos de calidad de un producto, ya que permiten clasificar éste como aceptable o inaceptable; además, no suelen
necesitar de sistemas de medición muy complejos y son más fácilmente entendibles por los no especialistas.
* Programa de computadora diseñado para ejecutar funciones estadísticas básicas y avanzadas.
8
A continuación se agrupan los gráficos
de control por variables según el tipo
de datos de que dispongamos.
Precontrol: Origen
El precontrol es una técnica de calidad que se usa para evaluar la capacidad o aptitud de un proceso de producción para
generar unidades que se ajusten a unas especificaciones previamente fijadas. El precontrol fue desarrollado en 1954 por
un grupo de consultores dirigido por Satterwaite (REF), como alternativa a los gráficos de control X¯-R de Shewhart.
Objetivo: supervisar un proceso teniendo en cuenta directamente las especificaciones del producto.
La versión original del precontrol fue publicada por Shainin y Shainin (REF).
Ventajas: del precontrol frente a los gráficos de control, el precontrol salva algunos de los inconvenientes que muestran
los gráficos de control X¯-R cuando son aplicados en ciertos contextos. En primer lugar, el precontrol no precisa para ser
llevado a cabo la recopilación y almacenamiento de datos ni su posterior tratamiento.
Esto supone una ventaja frente a los gráficos de control, sobre todo en situaciones en que el ciclo de producción es
corto y no da tiempo a calcular los límites de control o a dibujar los gráficos. Además, por otro lado, el precontrol
trabaja directamente con las especificaciones del producto, mientras que los gráficos de control únicamente tienen en
cuenta los límites de control calculados.
Los gráficos de control pueden generar señales de falta de control incluso cuando la totalidad de la producción se
encuentra dentro de las especificaciones, sobre todo en procesos con una gran capacidad potencial (es decir, aquellos
en que la variabilidad del proceso es pequeña en comparación con las tolerancias). En cambio, el precontrol es ajeno a
este tipo de situaciones, y sólo estaría posiblemente en desventaja frente a los gráficos de control cuando fuese de
interés detectar cualquier desviación real del proceso, independientemente de que se encuentre o no dentro de
especificaciones.
Pá gina 7 de 21
Por último, el precontrol puede ser utilizado incluso si la característica de calidad a controlar se trata de un atributo (es
decir, una característica discreta) o una cualidad visual que no puede ser medida numéricamente, casos en los 5
Capítulo 1. Precontrol que, obviamente, no es adecuado usar un gráfico de control X¯-R (aunque sí uno de control por
atributos).
Cabe decir que el nombre de precontrol no significa que este procedimiento deba aplicarse antes de que el proceso dé
comienzo, sino que hace referencia al hecho de que permite detectar problemas en el proceso, sobre todo en procesos
de producción rápidos, antes de que un gran número de unidades defectuosas sean generadas, a diferencia de los
gráficos de control (Traver, (REF)). En conclusión, podemos decir que, aunque el precontrol surgió como alternativa a los
gráficos de control, ambos métodos persiguen objetivos diferentes. El propósito del precontrol es detectar cuándo la
proporción de piezas no conformes es inaceptablemente elevada, mientras que los gráficos de control están diseñados
para revelar desviaciones del proceso.
En otras palabras, el precontrol tiene como objeto evaluar la capacidad del proceso, mientras que los gráficos de control
se ocupan de su estabilidad. Puede encontrarse una comparación formal entre el precontrol y los gráficos de control en
Ledolter y Swersey (REF). A modo de resumen, podemos señalar que el precontrol supone una herramienta para el
control de un proceso fácil de utilizar, no requiere muestrear una gran cantidad de datos y está directamente
relacionado con las especificaciones del producto. Precontrol frente a los gráficos de aceptación Los gráficos de control
de aceptación fueron introducidos en 1957 por Freund (REF?) y posteriormente revisados por Woods en 1976 (REF?).
Algunos autores sugieren nombrar esta técnica simplemente como gráficos de aceptación, dado que su objetivo no es
evaluar si un proceso se encuentra bajo control, sino si produce una proporción inaceptable de piezas fuera de
especificaciones. Por tanto, este tipo de gráficos sí coincide en su propósito con el precontrol.
En esta técnica, al igual que en los gráficos de control de Shewhart, se representan gráficamente las medias muéstrales
a lo largo del tiempo, pero, a diferencia de lo que sucede en los gráficos X¯-R, los límites de control no están basados en
la variabilidad del proceso (µ ± 3σ, habitualmente), sino en las especificaciones o tolerancias del producto. Se definen
unos límites tales que se asegure una cierta probabilidad 1 − α de aceptar un proceso con una 6 1.5. Precontrol clásico
proporción aceptable dada de piezas disconformes y una cierta probabilidad 1 − β de rechazar un proceso con una
proporción inaceptable dada de piezas disconformes (de manera similar a como se procede, por ejemplo, al diseñar un
plan de aceptación muestral). Dichos límites no son llamados límites de control, pues este término se reserva para los
gráficos propiamente de control, sino que reciben el nombre de límites de aceptación. Estos gráficos resultan
adecuados cuando el interés no está en detectar desviaciones del proceso sino proporciones inaceptables de piezas no
conformes, y especialmente en procesos muy capaces (es decir, con capacidad potencial Cp mayor que 1), en los que
una señal de falta de control puede no suponer un aumento inaceptable de la proporción de piezas no conformes.
Steiner (REF) compara en profundidad la técnica de los gráficos de aceptación con el precontrol, y concluye que el
precontrol es bastante competitivo frente a los gráficos de aceptación, excepto en los casos en que la variabilidad del
proceso es muy pequeña en comparación con el rango de tolerancias (concretamente, para procesos con Cp > 1,667),
en cuyo caso el precontrol finaliza no calificando el proceso en situaciones en que prácticamente todas las piezas están
dentro de especificaciones, y salvo también cuando la variabilidad del proceso es elevada en relación con las tolerancias
(en concreto, para Cp < 1,136), caso en el cual el precontrol produce falsas alarmas en una proporción elevada. Estas
conclusiones son válidas para el precontrol clásico y algunas variaciones de éste que Steiner propone, y que
describiremos a continuación. Más adelante presentamos una generalización del precontrol propuesta por San Matías
et al (REF) que, entre otras mejoras, permite reducir la tasa de falsa alarma.
En cualquier caso, el precontrol presenta frente a los gráficos de aceptación la ventaja de la sencillez y la rapidez en el
procedimiento y la no exigencia de un elevado tamaño muestral.
Pá gina 8 de 21
Cada uno de los tests detecta un determinado comportamiento no aleatorio en los datos. Cuando alguno de los tests
resulta positivo entonces hay indicios de que la variabilidad de las observaciones se debe a causas especiales, las cuales
deberán investigarse.
Es importante notar que para realizar estos tests todas las muestras han de ser del mismo tamaño.
De datos por variables. Que a su vez pueden ser de media y rango, mediana y rango, y valores medidos individuales.
En la base de los gráficos de control está la idea de que la variación de una característica de calidad puede cuantificarse
obteniendo muestras de las salidas de un proceso y estimando los parámetros de su distribución estadística. La
Pá gina 9 de 21
representación de esos parámetros en un gráfico, en función del tiempo, permitirá la comprobación de los cambios en
la distribución.
El gráfico cuenta con una línea central y con dos límites de control, uno superior (LCS) y otro inferior (LCI), que se
establecen a ± 3 desviaciones típicas (sigma) de la media (la línea central). El espacio entre ambos límites define la
variación aleatoria del proceso. Los puntos que exceden estos límites indicarían la posible presencia de causas
específicas de variación.
CAPACIDAD DE PROCESOS
Una necesidad muy frecuente en los procesos consiste en evaluar la variabilidad y tendencia central de una
característica de calidad, para así compararla con sus especificaciones de diseño. La capacidad de proceso es el grado de
aptitud que tiene un proceso para cumplir con las especificaciones técnicas deseadas.
Cuando la capacidad de un proceso es alta, se dice que el proceso es capaz, cuando se mantiene estable a lo largo del
tiempo, se dice que el proceso está bajo control, cuando no ocurre esto se dice que el proceso no es adecuado para el
trabajo o requiere de inmediatas modificaciones.
● Histogramas
● Gráficos de control
● Planillas de inspección
Cuando el proceso se ve modificado, por ejemplo con la implementación de una nueva máquina, o con un reajuste de
métodos, debe efectuarse un estudio de índices de capacidad.
● Las mediciones individuales del proceso se comporten siguiendo una distribución normal.
● Las especificaciones de ingeniería representen con exactitud los requerimientos de los clientes.
Cuando se han identificado desviaciones en el comportamiento estadístico de las mediciones de alguna característica de
calidad, la evaluación de la capacidad del proceso inicia después de que en las gráficas de control las causas especiales
han sido identificadas, analizadas y corregidas, por ende, las gráficas actuales de control muestran un proceso dentro de
control estadístico.
Pá gina 10 de 21
CLASIFICACIÓN DE LOS ÍNDICES DE CAPACIDAD
Los índices de capacidad se pueden clasificar según su posición y alcance temporal en:
Respecto a su posición
Tomando en cuenta que los límites de la especificación normalmente se aplican a valores individuales, los límites de
control para los promedios de muestra no pueden compararse con los límites de la especificación. Para hacer una
comparación, debemos primero convertir R a la desviación estándar para valores individuales, calcular los límites de
±3σy compararlos con los límites de la especificación. Este proceso se explica a continuación.
Si un proceso está en control estadístico, se halla operando con la cantidad mínima de variación posible (la variación
debida a causas aleatorias). Si, y sólo si, un proceso está en control estadístico, la siguiente relación sirve para el uso de
s como un estimado de:
R
s=
d2
En la práctica, el análisis original de la gráfica de control mostrará con frecuencia que el proceso está fuera de control
estadístico. (Puede estar cumpliendo o no con las especificaciones del producto.) Sin embargo, una investigación puede
demostrar que las causas no se pueden eliminar del proceso de manera económica. En teoría, la capacidad del proceso
no debería predecirse hasta que se encuentre en control estadístico. No obstante, en la práctica, se requiere algún tipo
de comparación de la capacidad con las especificaciones. El peligro de retrasar la comparación es que las causas
asignables podrían nunca ser eliminadas del proceso. La indecisión resultante prolongaría por lo tanto la discusión sobre
si “la especificación es demasiado exigente” o “la manufactura es muy descuidada”.
Una buena manera de empezar es diagramando las mediciones individuales en relación con los límites de la
especificación. Este paso demostrará que el proceso puede cumplir con las especificaciones del producto incluso con la
presencia de causas asignables. Si el proceso tiene causas asignables de variación pero es capaz de cumplir con las
especificaciones, normalmente no existe ningún problema económico. El estadístico puede señalar adecuadamente que
el proceso con una variación asignable es impredecible. Este punto se toma en cuenta, pero al establecer prioridades en
los esfuerzos de mejora de la calidad, los procesos que están cumpliendo con las especificaciones rara vez reciben una
alta prioridad.
Si un proceso está fuera de control y las causas no se pueden eliminar económicamente, su desviación estándar y
límites de capacidad se pueden calcular de todas formas (incluyendo los puntos fuera de control). Estos límites se
incrementarán porque el proceso no estará operando en su mejor nivel. Además, su inestabilidad significa que la
predicción es aproximada.
Pá gina 11 de 21
Es importante distinguir entre un proceso que se encuentra en un estado de control estadístico y uno que está
cumpliendo con las especificaciones. Un estado de control estadístico no significa necesariamente que el producto del
proceso está conforme con las especificaciones. Los límites de control estadístico sobre los promedios de muestra no se
pueden comparar con los límites de la especificación, porque éstos hacen referencia a unidades individuales. Para
algunos procesos que no están en control, las especificaciones se están cumpliendo y no se requiere tomar ninguna
medida; otros procesos están en control, pero las especificaciones no se están cumpliendo y se requieren acciones
(véase la sección 20.16).
En resumen, necesitamos procesos que sean estables (que estén en control estadístico) y, al mismo tiempo, capaces
(que cumplan con las especificaciones del producto).
El creciente uso de los índices de capacidad también condujo a una imposibilidad para entender y verificar algunas
presunciones importantes esenciales para la validez estadística de los resultados. Las siguientes son cinco presunciones
clave:
1. Estabilidad del proceso. La validez estadística requiere control estadístico sin desviación ni oscilación.
2. Normalidad de la característica que se está midiendo. Se necesita normalidad para hacer inferencias estadísticas
respecto a la población.
3. Datos suficientes. Se necesitan suficientes datos para minimizar el error de la muestra en los índices de capacidad.
Lewis (1991) presenta tablas de 95 por ciento de los límites inferiores de confianza para los valores de Cp y Cpk.
EJEMPLO. Considere una caja de bombeo que se utiliza para suministrar una solución intravenosa (Baxter Travenol
Laboratories, 1986). Una característica clave es el volumen de la solución suministrada durante un periodo predefinido.
Los límites de la especificación son:
Se realizó una gráfica de control durante un mes, y se encontraron puntos fuera de control. A partir de los datos de la
gráfica de control, sabemos que: X = 98.2 y s = 0.98
Pá gina 12 de 21
Para muchas aplicaciones, 1.26 es un valor aceptable para Cpk.
Interpretación de Cpk
Al usar Cpk para evaluar un proceso, debemos reconocer que ésta es una abreviación de dos parámetros: el promedio y
la desviación estándar. Dicha abreviación puede encubrir inadvertidamente detalles importantes en estos parámetros.
Por ejemplo, la figura 20.17 muestra que tres procesos extremadamente diferentes pueden tener todos el mismo Cpk
(en este caso Cpk = 1).
El hecho de incrementar el valor de Cpk puede requerir un cambio en el promedio del proceso, la desviación estándar
del proceso o ambos. Para algunos procesos, incrementar el valor de Cpk cambiando el valor promedio (quizás con un
simple ajuste del objetivo del proceso) puede ser más fácil que reducir la desviación estándar (investigando las diversas
causas de variabilidad). El histograma del proceso siempre debería revisarse para destacar tanto el promedio como el
desarrollo del proceso.
Hay que notar que la tabla 20.7 también incluye el índice de capacidad Cpm. Este índice mide la capacidad en torno a un
valor objetivo T en lugar del valor medio. Cuando el valor objetivo es igual al valor medio, el índice Cpm es idéntico al
índice Cp.
Los datos reportaron 80 errores provenientes de seis capturistas de pólizas o 13.3 errores por persona: el desempeño
actual. La capacidad del proceso puede calcularse excluyendo el desempeño anormal identificado en el estudio —
errores de tipo 3 del trabajador B, errores de tipo 5 y errores del trabajador E—. Los datos de errores de los cinco
capturistas restantes se convierten en 4, 3, 5, 2 y 5, con un promedio de 3.8 errores por persona. La estimación de la
capacidad del proceso de 3.8 se compara con la estimación original de desempeño de 13.3.
Este ejemplo calcula la capacidad de un proceso en términos de errores o equivocaciones en lugar de la variabilidad de
un parámetro del proceso. Hinckley y Barkan (1995) señalan que, en muchos procesos, los productos no conformes
pueden ser causados por una excesiva variabilidad o por errores (verbigracia, partes que faltan, partes equivocadas,
información errónea u otros errores de procesamiento). En algunos procesos, los errores pueden ser un factor
Pá gina 13 de 21
importante para no cumplir con los objetivos de calidad del cliente. Las acciones requeridas para reducir las fallas son
diferentes de las que se necesitan para reducir la variabilidad de un parámetro.
Otros procesos de servicios pueden no contar con datos variables o continuos. Por ejemplo, una empresa brinda un
servicio que consiste en garantizar cheques firmados por los clientes en las tiendas minoristas. La decisión de la garantía
se basa en un proceso que lleva una evaluación en línea de seis factores. Desafortunadamente, un porcentaje de
cheques no se pagan (“rebotan”), y puede ser considerado como una medida de la capacidad del proceso para tomar la
decisión de garantizar. Este enfoque usa datos de atributos o categóricos como en el ejemplo recién mencionado sobre
los errores en las pólizas de seguros.
Al extender la línea diagramada para intersectar los límites de la especificación (que se muestran como líneas
verticales), se puede predecir el porcentaje de productos no conformes. Esencialmente, cero por ciento caerá por
debajo del límite inferior de la especificación o por encima del límite superior de la especificación. El valor medio se
puede estimar rápidamente a partir del Diagrama.
Pá gina 14 de 21
Se entra en el eje vertical en la línea de 50 por ciento. La línea intersecta la diagonal en 0.030 de la escala horizontal. El
enfoque del documento de probabilidad tiene algunas ventajas. Se evita el término “desviación estándar” (que sigue
siendo un misterio para la mayoría de la gente incluso después de que se explica). El diagrama ofrece una prueba
aproximada de normalidad. Cuando los datos están limitados, el diagrama del documento de probabilidad podría ser
más valioso que comparar un histograma con la teoría de “forma de campana”, porque las muestras pequeñas con
frecuencia arrojan histogramas que tienen muchos picos y valles, lo que dificulta hacer un juicio sobre la forma
subyacente. Finalmente, el documento de probabilidad de Weibull puede usarse para ver distribuciones oblicuas o
inusuales. Para evaluar la capacidad del proceso usando documentos de probabilidad (o histogramas) normalmente no
se evalúa el proceso en búsqueda de control estadístico. Este enfoque no determina la capacidad inherente del proceso.
Los datos pueden incluir mediciones de distintas poblaciones, y presentar cambios en el proceso o debidos al tiempo.
Dichas condiciones resultan en las dispersiones observadas que son más amplias que la capacidad inherente al proceso.
La evaluación de la capacidad inherente requiere el uso de una gráfica de control
En algunos casos, el estudio de capacidad se enfoca en la determinación de un histograma y un índice de capacidad para
un proceso relativamente simple. Aquí, la planeación debe garantizar que las condiciones del proceso (como
temperatura, presión) estén completamente definidas y registradas. Todas las demás entradas deben ser claramente
representativas, como equipo específico, material y, por supuesto, personal. Para procesos más complejos o cuando se
buscan niveles de defectos de 1 a 10 partes por millón, se recomiendan los siguientes pasos:
1. Desarrollar una descripción de proceso que incluya entradas, pasos de proceso y características finales de calidad.
Esta descripción puede ir desde una simple identificación del equipo hasta el desarrollo de una ecuación matemática
que muestre el efecto de cada variable del proceso en las características de calidad.
2. Definir las condiciones del proceso para cada una de sus variables. En un caso simple, este paso implica el
planteamiento de especificaciones para la temperatura y la presión. Pero para algunos procesos, significa determinar el
valor óptimo u objetivo de cada variable. El diseño estadístico de experimentos ofrece la metodología. También hay que
determinar los rangos operativos de las variables del proceso en torno a un óptimo, porque el rango afectará la
variabilidad de los resultados del producto.
3. Asegurarse de que cada característica de calidad tenga al menos una variable del proceso que pueda usarse para
ajustarla.
4. Decidir si el error en la medición es significativo. Esto puede determinarse a partir de un estudio separado de error.
En algunos casos, el error de medición puede evaluarse como parte del estudio general.
5. Decidir si el estudio de capacidad se enfocará sólo en la variabilidad o si incluirá también equivocaciones o errores
que provoquen problemas de calidad.
7. Preparar un plan de recopilación de datos incluyendo el tamaño adecuado de la muestra que documente los
resultados sobre las características de calidad junto con las condiciones del proceso (como valores de todas las variables
de éste), y preserve la información en el orden en que se tomaron las medidas, para poder evaluar también la
tendencia.
8. Planear qué métodos se usarán al analizar los datos del estudio para garantizar, antes de iniciarlo, que todos los datos
necesarios estarán disponibles. Los análisis deben incluir cálculos de la capacidad del proceso sobre la variabilidad y el
análisis de datos de atributos o categóricos sobre los errores, y de datos de experimentos diseñados estadísticamente
incorporados al estudio.
9. Estar preparados para invertir tiempo investigando los resultados interinos antes de que se hagan los cálculos sobre
la capacidad del proceso. Estas investigaciones pueden incluir el análisis de valores óptimos y rangos de variables del
Pá gina 15 de 21
proceso, puntos fuera en las gráficas de control o cualquier otro resultado inusual. Las investigaciones entonces llevan a
un objetivo último, como la mejora del proceso.
Cabe destacar que estos pasos se enfocan en la mejora y no sólo en determinar un índice de capacidad.
La estrategia Seis Sigma se basa en métodos estadísticos rigurosos que emplean herramientas de calidad y análisis
matemáticos, ya sea para diseñar productos y procesos o para mejorar los ya existentes. Esta estrategia requiere que se
optimicen las salidas del proceso mediante un enfoque en las entradas y procesos involucrados. Matemáticamente esto
se describe mediante la siguiente ecuación: Y = f(x)
Esto se expresa como Y es una función de x; donde Y es una variable dependiente de una salida del proceso, un efecto o
síntoma que hay que monitorear y x son variables independientes de entradas o del proceso que representan las causas
o problemas que hay que controlar o que de hecho son controlables.
La meta de seis sigma, es lograr que los procesos tengan una calidad Seis sigma.
Cuantitativamente esto quiere decir tener 3.4 defectos por millón o en otras palabras estar bien el 99.9997% de las
veces a la primera. Esta meta pretende alcanzar mediante u programa vigoroso de mejora, diseñado e impulsado por la
alta dirección de una organización en el que se desarrollan proyectos de seis sigma a lo largo y ancho con el objetivo de
lograr mejoras mediante la eliminación de defectos, retrasos de productos, procesos y transacciones.
Antecedentes
Seis Sigma fue introducida por primera vez en 1987 en Motorola por un equipo de directivos encabezados por Bob
Galvin, presidente de la compañía con el propósito de reducir los defectos de productos electrónicos. Desde entonces
Seis Sigma ha sido adoptado, enriquecido y generalizado por un gran número de compañías. Además de Motorola, otras
compañías que han adoptado la metodología y logrado grandes éxitos son Allied Signal1 que inicio su programa en 1994
y General Electric2 que inicio en 1995. Uno de los factores decisivos fue que los presidentes de estas compañías, Larry
Bossidy y Jack Welch, respectivamente, encabezaron y apoyaron de manera entusiasta y firme el programa dentro de
sus organizaciones.
Pá gina 16 de 21
● Motorola logró aproximadamente 1000 millones de dólares en ahorros durante tres años y el premio a la
calidad Malcom Baldrige en 1988.
● Allied Signal logro más de 2000 millones de dólares en ahorros entre 1994 y 1999.
● General Electric alcanzo más de 2250 millones de dólares en ahorros en dos años (1998- 1999).
Seis Sigma
La letra griega “Sigma” (σ) es utilizada en estadística para denominar la desviación estándar (medida de dispersión de
los datos respecto al valor medio). Mientras más alto sea el “Sigma” y, consecuentemente, menor la desviación
estándar, el proceso es mejor, más preciso y menos variable. Como se mencionó anteriormente, en estadística el valor
de 6 Sigma corresponde a 3.4 defectos por millón. Esto se refiere a que de acuerdo a los límites de especificación del
cliente, la variación de un proceso resulta en seis desviaciones estándar del proceso entre la media del proceso y los
límites de especificación del cliente.
Por lo tanto, Seis Sigma se utiliza como una medida estadística del nivel de desempeño de un proceso o producto. A
continuación se ve gráficamente el cambio de un proceso con una calidad tres sigma a uno con calidad seis sigma
Cambiar de una calidad tres sigma a seis sigma significa pasar de un proceso con un rendimiento de 99.73% (tres sigma)
la cual genera 66,800 defectos por millón a una con rendimiento de 99.9997% la cual genera como se mencionó
anteriormente 3.4 defectos por millón.
● Unidad; “son las partes, productos o ensambles que son producidas por un proceso y por lo tanto es posible
inspeccionar o evaluar su calidad.”
● Oportunidad; “cualquier parte de la unidad que puede medirse o probarse que es adecuada”.
● Defecto; “cualquier no conformidad o desviación de la calidad especificada de un producto”.
d
DPU =
U
Donde d es el número de defectos observados y U es el número de unidades producidas en cierto periodo de tiempo.
d
DPO=
U xO
Donde O es el número de oportunidades de error por unidad. Se debe de asegurar que solo se cuenten oportunidades
que son significantes en el proceso.
Pá gina 17 de 21
DPMO (defectos por millón de oportunidades)
Este índice mide los defectos esperados en un millón de oportunidades de error y se calcula de la siguiente manera:
• Master Black Belt; Experto en las técnicas de Seis Sigma y en implantación de proyectos. Juegan un gran papel en el
entrenamiento, la asesoría y la remoción de barreras para la ejecución de proyectos además de la promoción general de
la filosofía Seis Sigma.
• Black Belt; Líder de tiempo completo en Seis Sigma, se encargan de establecer objetivos de calidad, seleccionar
proyectos, apoyar y supervisar su ejecución.
• Team Members (Miembros del Equipo); Son personas que ofrecen sus conocimientos y experiencia de tiempo parcial.
Representan sus áreas ya sea que estén directamente o indirectamente involucradas en el proyecto. Ayudan en la
realización de tareas relacionadas con el proyecto, encontrar ideas de mejora y sustentar resultados.
• IDOV (Identify-Design-Optimize-Validate); Se aplica para nuevos procesos o productos y no existe medición alguna
disponible.
Una organización o cualquier parte de ella, proporciona una serie de servicios (o productos) que consume un cliente
(interno o externo). Para la entrega de dicho servicio (o producto) las organizaciones ejecutan un proceso.
La Serie de Normas NTP-ISO 9000:2001, promueve la adopción de un enfoque basado en procesos cuando se desarrolla,
implementa y mejora la eficacia de un sistema de gestión de la calidad, para aumentar la satisfacción del cliente
mediante el cumplimiento de sus requisitos. Este enfoque se basa en la estructura de la TP-ISO 9004:2001 Sistemas de
Gestión de la Calidad. Directrices para la mejora del desempeño, la versión anterior de la serie de normas NTP-ISO
9000:1994 estaba basada en 20 elementos, los cuales son:
1. Responsabilidades de la Dirección
2. Sistema de Calidad
3. Revisión del contrato
Pá gina 18 de 21
4. Control del diseño
5. Control de la documentación y de los datos
6. Compras
7. Control de los productos suministrados por el cliente
8. Identificación y trazabilidad de los productos
9. Control de los procesos
10. Inspección y ensayo
11. Control de los equipos de inspección, medición y ensayo
12. Estado de inspección y ensayo
13. Control de los productos no conformes
14. Acciones correctoras y preventivas
15. Manipulación, almacenamiento, embalaje, conservación y entrega
16. Control de los registros de la calidad
17. Auditorías internas de Calidad
18. Formación
19. Servicio postventa
20. Técnicas estadísticas
Los actuales sistemas de gestión de calidad están basados en procesos, siendo sus requisitos los siguientes capítulos de
la Norma NTP-ISO 9001:2001:
- Organización enfocada al cliente: Las organizaciones dependen de sus clientes y por lo tanto deberían comprender las
necesidades actuales y futuras de los clientes, satisfacer los requisitos de los clientes y esforzarse en exceder las
expectativas de los clientes.
Pá gina 19 de 21
- Liderazgo: Los líderes establecen la unidad de propósito y la orientación de la organización. Ellos deberían crear y
mantener un ambiente interno, en el cual el personal pueda llegar a involucrarse totalmente en el logro de los objetivos
de la organización.
- Participación del personal: El personal, a todos los niveles, es la esencia de una organización y su total compromiso
posibilita que sus habilidades sean usadas para el beneficio de la organización.
- Enfoque a los procesos: Un resultado deseado se alcanza eficientemente cuando las actividades y los recursos
relacionados se gestionan como un proceso.
- Sistema enfocado hacia la gestión: Identificar, entender y gestionar los procesos interrelacionados como un sistema,
contribuye a la eficacia y eficiencia de una organización en el logro de sus objetivos.
- Mejoramiento continuo: La mejora continua del desempeño global de la organización debería ser un objetivo
permanente de ésta.
- Toma de decisiones basada en hechos: Las decisiones eficaces se basan en el análisis de los datos y la información.
- Relación mutuamente benéfica con proveedores: Una organización y sus proveedores son interdependientes, y una
relación mutuamente beneficiosa aumenta la capacidad de ambos para crear valor.
- Fundamentos y Vocabulario, un proceso se define como "conjunto de actividades mutuamente relacionadas o que
interactúan, las cuales transforman elementos de entrada en resultados", y en el caso de un producto la misma norma
lo define como "resultado de un conjunto de actividades mutuamente relacionadas o que interactúan, las cuales
transforman entradas en salidas". Los insumos y productos terminados pueden ser tangibles e intangibles.
La Norma NTP-ISO 9001:2001 hace énfasis en la importancia para que una organización identifique, implemente,
gestione, y mejore continuamente la eficacia de los procesos necesarios paran el sistema de gestión de la calidad, y para
gestionar las interacciones de estos procesos con el fin de lograr objetivos de la organización.
La Norma ISO - NTP 9004:2001 va más allá de los requisitos de la Norma NTP-ISO 9001:2001 al centrarse sobre la
mejoras del desempeño y recomienda evaluar la eficiencia y la eficacia de los procesos. Esto se hace mediante proceso
de revisión internos o externos valorándolos según una escala de madurez, es decir desde un "sistema informal" hasta
"el mejor de su clase". La ventaja es que los resultados de este enfoque pueden ser registrados y hacerles un
seguimiento hasta alcanzar las metas de mejora fijadas. Actualmente se utiliza una escala del 0.0 al 5.0, esta escala
permite conocer el grado de madurez de los procesos.
Se admite, estadísticamente, que en las organizaciones sin " Gestión de mejora Continua" el volumen de la ineficiencia
puede estar entre un 15 y 25 % de sus ventas. Las que si la hacen, oscila entre 4 y 6%. Un rápido cálculo nos hará
descubrir la magnitud de la respectiva "Mina de Oro" y el efecto que tiene sobre los resultados y la competitividad. La
mayoría de los fallos o ineficiencias que configuran el despilfarro son desconocidos, considerados como normales,
ignorados y con frecuencia ocultados. Actitudes que impiden buscar soluciones y evitar su repetición.
Pá gina 20 de 21
- El liderazgo de la dirección
- Un comité de mejora continúa
- Formación y motivación específicas
- Un sistema de gestión documentado
- Asesoramiento externo
Dentro del contexto de un sistema de gestión de la calidad, el ciclo PHVA es un ciclo que está en pleno movimiento. Que
se puede desarrollar en cada uno de los procesos. Está ligado a la planificación, implementación, control y mejora
continua, tanto para los productos como para los procesos del sistema de gestión de la calidad.
El ciclo PHVA se explica de la siguiente forma:
Planificar: Verificar:
Involucrar a la gente correcta Analizar y desplegar los datos
Recopilar los datos disponibles ¿Se han alcanzado los resultados deseados?
Comprender las necesidades de los clientes Comprender y documentar las diferencias
estudiar exhaustivamente el/los procesos involucrados Revisar los problemas y errores
Pá gina 21 de 21