Documentos de Académico
Documentos de Profesional
Documentos de Cultura
herramientas
gráficas básicas
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Bienvenida al curso
Bienvenido al curso: Estadísticas y Herramientas Gráficas Básicas.
Nuevamente, te invito para que revises los contenidos que fueron elaborados
especialmente para ti.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Elemento de competencia
Temario
discretas
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Contexto
Antes de comenzar con los temas, te presentamos un breve contexto de la industria
automotriz, en la cual se desarrollará el contenido de este curso.
La industria automotriz es una de las industrias más sólidas del mercado a nivel
mundial. De acuerdo a información disponible en internet se estima que se
construyeron alrededor de 95.6 millones de vehículos en el mundo durante el 2018.
México se encuentra en el top 10 en la producción anual de vehículos. En nuestro país
se comercializan alrededor de 40 marcas diferentes y se encuentran instaladas al
menos 10 armadoras automotrices. La importancia que permite fabricar vehículos
con poca variabilidad en cada uno de sus componentes es crucial para asegurar altos
estándares de calidad. En la medida que las compañías sean capaces de producir
vehículos que tengan pocos defectos hará que las personas prefieran seguir
comprando la misma marca o decidan cambiar por otro dentro del mismo segmento
de su poder adquisitivo.
Calidad
Como los vehículos están compuestos por cientos o miles de partes, se necesita de
proveedores. Para ser proveedor de estas compañías se requiere seguir ciertos
parámetros de calidad y de procesos que las OEM (Original Equipment Manufacturer
o Fabricante de equipos originales, también conocidos como “armadoras”) exigen en
un mercado muy competitivo. Algunos de estos proveedores son por ejemplo los
fabricantes de parabrisas, de frenos, de neumáticos o de bolsas de aire por citar
algunos ejemplos. Si un fabricante nuevo desea ser proveedor de la industria
automotriz debe mostrar con evidencia estadística que es capaz de satisfacer las
especificaciones establecidas por la armadora, que su proceso es estable y está en
control y por tanto que su habilidad para producir productos sin defectos es muy alta,
porque en caso de no hacerlo, los costos asociados de hacer un recall son muy altos.
Los vehículos
Más casos
Así como estos ejemplos, podemos citar otros tanto como Toyota con el mecanismo
eléctrico de los cristales o el pedal del acelerador que provocaba repentinamente una
aceleración no intencionada o el llamado dieselgate de VW. No obstante, el caso más
emblemático es el de los 100 millones de bolsas de aire potencialmente defectuosas
de Takata, bolsas que se habían instalado en 198 modelos de vehículo en más de 10
compañías armadoras, cuyo principal problema era, al activarse ante una colisión se
fragmentaba al dispositivo metálico que las contiene disparando así fragmentos de
metal hacia los pasajeros.
Los ejemplos anteriores son de suma relevancia porque a pesar de ser capaces de
fabricar vehículos que cumplen con las regulaciones de los países, los procesos que a
veces siguen las compañías armadoras no siempre producen pocos vehículos
defectuosos y es aquí donde debemos determinar cuántas unidades por cada millón
se consideran defectuosas, tema del que nos ocupamos hacia el final de nuestro
curso.
Aprendizaje
Con este tipo de pruebas pudiéramos establecer qué tipo de distribución siguen los
datos recolectados cuando nos interesar saber cuántas horas trabajan en promedio
los empleados, quién trabaja más y en qué porcentaje se puede llegar a exceder de
las horas permitidas, cuántas horas extras trabaja el 50% de los empleados, si existe
algún empleado que trabaja mucho más tiempo del permitido por la ley y así
sucesivamente.
Aunque en la práctica se suele asumir que los datos se comportan de forma normal,
vale la pena dedicarle un espacio a este tipo de pruebas ya que, aunque tengamos
Minitab o cualquier otro paquete computacional que nos calcule los estadísticos, es
una buena práctica corroborarlo porque nos permitirá utilizar diferentes pruebas y
gráficas estadísticas asociadas a la misma.
Los datos normales no son comunes en el mundo transaccional, por lo que debes
tener presente que el hecho de que tus datos no sea normales no significa algo malo,
antes bien significa que puede que tengas que pensar en tus datos de una manera
ligeramente diferente.
A través del siguiente ejemplo puedes revisar a detalle las distribuciones de cálculo.
La fórmula para calcular una probabilidad bajo la curva está dada por:
Donde:
• μ: es la media de la distribución.
Hemos dicho que la distribución normal es una familia de distribuciones, en los que
podemos ver algunos casos particulares, por ejemplo:
También es posible tener los dos procesos, empleados, unidades de negocio, etc.
teniendo diferentes medias y diferentes desviaciones entandar, donde lo que nos
importará estará en función de más es mejor, por ejemplo, si decimos que es en
términos de ingresos promedio, evidentemente entre más grande sea la media será
mejor, pero si lo que queremos es reducir el número de errores promedio de cafés
mal preparados entonces entre más pequeña sea la media mejor.
No obstante, para nuestro caso, cobra especial interés la forma en que se disperse el
proceso, lo importante será considerar las desviaciones estándar, las cuales entre
más pequeñas será mucho mejor toda vez que nuestra metodología DMAIC se basa
justo en eso, en las sigmas, que son las desviaciones estándar. Por tanto,
procuraremos tener valores pequeños en la dispersión como se muestra en la
siguiente figura.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Pruebas de hipótesis
Pruebas de bondad
Hipótesis Estadística
La Hipótesis Nula (H0), es la afirmación que se supone al principio como cierta, y que
será sometida a una prueba de hipótesis. Se rechaza en favor de la alternativa sólo si
la muestra ofrece suficiente evidencia como para rechazar H0.
Los valores
Los valores que se manejan en las pruebas de hipótesis son 1%, 5%, y 10%, sin
embargo el más empleado es el del 5% que significa que el analista está dispuesto a
cometer hasta un 5% de error en sus resultados o equivocarse en 5 de cada 100 veces
en sus conclusiones. En la medida que se ponga en riesgo la integridad de las
Análisis de riesgos en el proceso e identificación de mejoras rápidas
personas, el valor del porcentaje debe disminuir para garantizar la confiabilidad, por
ejemplo, de medicamentos.
Planteamiento de hipótesis
H0 (Hipótesis nula): Sin relación, sin cambios, no hay diferencia, no afecta, no incide,
no influye, “No pasa nada”
Valores de alpha
Conclusión
La intención es, generalmente, rechazar H0 para aceptar H1, ya que nos interesa
probar que algo sucedió, algo pasó, la variable X sí afecta a la variable Y.
Para que la hipótesis nula se rechace necesitamos que los resultados del valor p (p-
value) sean menores al 5% (nuestro margen de error o la probabilidad de tomar una
decisión equivocada) caso contrario decimos que no rechazamos H0 (la aceptamos) y
concluimos que en realidad la variable X no influye sobre la variable Y.
buscamos es NO rechazar H0, para decir, buscamos que los datos provienen de una
distribución normal o se comportan como una distribución normal o tienden a
comportarse como normales, tema del que nos ocuparemos enseguida. Buscamos
que se comporten de forma normal por los beneficios o características que heredarán
al comportarse como tal y que fueron expuestas línea arriba.
Supuesto de normalidad
Comprobación
Aunque existen varias pruebas para corroborar la normalidad de los datos, el más
importante, el más potente o robusto es el de Anderson-Darling y es el que
utilizaremos para validar la normalidad a través de una prueba de hipótesis llamada
Prueba de Bondad de Ajuste. Cabe decir que el estadístico Anderson-Darling mide
qué tan bien siguen los datos una distribución específica más allá de solo emplearlo
para la normalidad por lo que en términos generales, mientras mejor se ajuste la
distribución a los datos, menor será este estadístico.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Hipótesis
Caso de Estudio
Pedir café
Empleado 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Horas Extra 13 13 12 15 7 15 5 12 6 7 12 10 9 13 12
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Conjunto de datos
El gerente sabe que lo primero que se debe hacer SIEMPRE con un conjunto de datos,
es validar la normalidad y a partir de ahí realizar los estudios que cree pertinentes.
Por lo anterior emplea Minitab y obtiene los siguientes resultados presentados el
gráfico superior.
Resultados
La gráfica nos muestra información respecto a cómo se distribuyen los datos con
relación a la distribución de la normal y el valor-p o p-value que es de 0.085. Este
valor-p nos confirma que hay evidencia estadística suficiente para concluir que no
rechazamos H0, es decir, que aceptamos que los datos se comportan de forma
normal.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Como puede ver en las elipses señaladas, en ambos casos, se corrobora que los datos
ya sea que provienen o tienden a comportarse de forma normal, por lo que el gerente
ya puede realizar los análisis que crea convenientes, por ejemplo, usar herramientas
gráficas.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
La relación que existe entre las medidas de centralidad y de dispersión estriba en que
si solo se tomará en cuenta las primeras, se llegaría a una conclusión incorrecta, por
lo que para robustecer tales conclusiones es necesario que tomes en cuanta las
segundas.
Las medidas de dispersión son tan importantes que son la base de la metodología de
Six Sigma, porque como su nombre lo indica, se basa en la dispersión o desviación o
variación existente en torno a la media.
Conceptos
Media, promedio
Donde:
Donde:
Retomando el ejemplo de las horas laboradas por los empleados en una de las
regiones de la compañía de café, lo que tenemos que hacer es sumar cada uno de los
valores de las horas de los empleados:
En este caso, se debe sumar desde el empleado 1 con 13 horas laboradas hasta el
empleado 15 con las 12 horas trabajadas y luego dividir esa suma entre los 15
empleados
=10.733
Statistics
Por lo anterior, se puede decir, que todos los trabajadores laboran en promedio un
total de 10.733 horas, pensando que son semanales. Aquí, se declara tener una
primera conclusión, que los empleados están trabajando en promedio más de lo que
normalmente se esperaría y es comprensible que debido al cansancio se estén
preparando mal los cafés.
Con base en lo anterior, se dice que todo conjunto de datos posee una media, que
todos los datos se encuentran incluidos en el cálculo de ella, y ésta es única, ya que
solo existe una media para cualquier conjunto de datos.
no sea la adecuada para representar los datos, y por tanto, se requiera de otra
medida más apropiada para la representación de estos, la mediana, que a
continuación se presenta.
Mediana
La mediana se emplea cuando se debe dividir en dos partes iguales el total de los
datos, no importan si son datos muy pequeños o muy grandes, por lo que el 50% de
los datos estarán por encima y por debajo del valor calculado. Es importante para
calcularla que los datos estén ordenados de mayor a menor o viceversa. Al obtener el
punto medio de los valores (la posición de los datos), no siempre es posible tener un
valor contenido en el conjunto de los datos, sin embargo, ese dato o valor es el que
divide en exactamente dos partes iguales al conjunto de los datos. Veamos los dos
casos.
En el ejemplo de las horas extras, tenemos 15 empleados como se muestra una vez
más en la tabla de abajo.
Debemos ahora ordenar los datos ya sea de menor a mayor o viceversa. En este caso,
ordenaremos de menor a mayor y asignaremos una posición a cada valor.
Donde
̃ : Representa la mediana
•𝑿
Statistics
Cuando el número total de datos es par, la mediana es el promedio del valor que se
encuentra al lado izquierdo y al lado derecho. Por ejemplo, si el conjunto en lugar de
15 fuera 16, siguiendo la fórmula sería (16+1)/2 = 8.5, por tanto la mediana sería el
promedio de los valores en la posiciones 8 y 9.
Moda
No existe una fórmula para la moda, solo se podría decir que se obtiene a partir de
indicar las frecuencias para cada dato observado y el que contabiliza más es la que se
define como la moda con tantas veces su aparición o frecuencia, no obstante, su
símbolo es:
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Para el caso de las horas extras laboradas podemos ver claramente que el valor 12 se
repite en cuatro ocasiones, por lo que este dato es la moda.
Statistics
Aunque aquí se han separado los resultados para cada una de las medidas de
ubicación o centralidad, Minitab, nos puede dar en una sola corrida estos valores y a
partir de ellos se puede llegar a las mismas conclusiones que se han establecido.
Statistics
Los datos indican que analizando la variable de horas extras, se puede establecer que
los 15 empleados trabajan en promedio 10.733 horas, que el 50% de los empleados
trabaja por debajo de 12 horas y el resto por encima de las mismas y que 4
empleados de los 15 trabajan 12 horas.
En el siguiente tema abordarás otra manera de llegar a las mismas conclusiones pero
con herramientas gráficas.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Medida de dispersión
Medidas de Ubicación
Las medidas de ubicación como la media y la mediana solo describen el centro de los
datos, las cuales son valiosas pero no dicen nada con relación a la dispersión de los
datos.
Las medidas de dispersión indican qué tanto se alejan los datos de la media (o
tendencia central).
Revisión de la Dispersión
Otra razón por la cual se debe revisar la dispersión es para comparar dos o más
conjuntos de datos.
Medida de dispersión
Rango
Existe una carta de control llamada I-MR utilizada para monitorear la media y la
variación del proceso cuando se tienen observaciones individuales de tipo
continuo (lo abordarás con profundidad en esa fase).
El rango representa el intervalo que contiene a todos los valores de los datos que
están siendo analizados.
Un valor grande indica que hay mucha dispersión, en tanto que uno pequeño
indica que es menor la dispersión de los datos.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
En el caso de las horas extras de los empleados del negocio de café podemos ver
que el valor máximo es el 15 y el mínimo es 5, por tanto el rango es 10, obtenido
de 15-5 = 10.
La interpretación que se puede dar a ese valor, son las horas extras trabajadas
que se distribuyen con una variación o dispersión de 10 horas, siendo 5 el menor
número de horas trabajadas por los empleados y hasta un máximo de 15. Aquí
no se puede decir, si es poca o mucha la variación o dispersión de los datos,
porque se necesita un valor de referencia o bien, compararlo con otro conjunto
de datos para llegar a esa conclusión.
Statistics
Varianza
La varianza es una medida que indica qué tanto se alejan en promedio las
diferencias cuadradas de cada dato respecto de su media.
Varianza poblacional:
Donde:
• μ : es la media de la población
• Σ : Indica sumatoria
Varianza muestral:
Donde:
• 𝒔𝟐 : es la varianza de la muestra
• ̃ : es la media de la muestra.
𝑿
• n : es el total de observaciones de la muestra.
• Σ : Indica sumatoria
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Como te das cuenta, el hecho de considerar los datos muestrales hace que el
valor de la varianza aumente porque en lugar de dividir entre el total de los
datos, lo hacemos con un dato menos, que es un factor de corrección por
subestimar la varianza poblacional.
Los resultados que arroja Minitab son en relación a la muestra porque casi
siempre estamos trabajando con ella en lugar de los datos poblacionales.
Statistics
Desviación estándar
La desviación estándar nos indica qué tan dispersos están los datos alrededor
de la media.
Donde:
Donde:
•𝒙
̃ : es la media de la muestra.
• Σ : Indica sumatoria
Regresando nuevamente al caso de las horas extras de los empleados del café
Statistics
Tengamos en cuenta que como los datos son poblacionales, el intervalo generado
a más menos una desviación estándar va de 7.625 a 13.842 horas, esto es, que el
68.27% de los empleados trabaja entre 7.625 a 13.842 horas, lo que también
puede interpretarse que de cada 100 empleados aproximadamente 68 trabajan
entre 7.625 a 13.842 horas. También podemos deducir que el 95.45% de los
empleados trabaja de 4.517 a 16.950 horas. Así mismo también nos indica que de
cada 100 empleados, aproximadamente 95 trabajarían entre 4.517 a 16.950
horas. Como vemos ya son muchas y por ende, el riesgo de preparar café
equivocado se incrementa debido al cansancio.
Gráfica de puntos
Gráfica de puntos
Dato repetido
Datos originales
Como los datos se grafican uno encima del otro, se mantienen los datos
originales evitándose la pérdida de los mismos. Esta gráfica funciona mejor
cuando el tamaño de la muestra es pequeño en tanto que los histogramas lo
hacen mejor para conjuntos de datos grandes.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Histograma
¿Qué es?
Un histograma es una herramienta gráfica que divide los valores del conjunto de
datos en muchos intervalos (llamadas clases) y representa su frecuencia por
medio de la altura de una barra.
Representación gráfica
Ubicación de clases
Consideración de uso
Del ejemplo de las horas extras podemos ver el histograma obtenido con Minitab
a continuación:
Histograma
Gráfica de la normal
Adicionalmente, puedes ver que Minitab muestra información tanto del tamaño
de la muestra como de la media y desviación estándar. No olvides, que Minitab
calcula los estadísticos muestrales, la media y la desviación estándar muestral.
Gráfica de caja
Explora la tercera herramienta a continuación:
Una gráfica de caja es una representación visual, basada en cuartiles, que ayuda
a presentar un conjunto de datos.
Antes de hacer un diagrama de caja, revisa a detalle cómo funcionan los cuartiles.
Los cuartiles
Donde:
En el caso de las horas extras, habiendo ya ordenado los datos como lo hicimos
para calcular la mediana, la información sería de la siguiente manera:
En el caso del Cuartil 1 (Q1), el valor 4 indica la posición, por tanto, el dato
referido es el 7, significa que el 25% de los empelados trabaja 7 o menos horas
(inclusive las 7 porque el dato 3 también es 7) y el 75% de los empleados trabaja
7 o más horas extras a la semana.
En el caso del Cuartil 2 o la mediana (Q2), puede notar que es la posición 8 y nos
dice que el 50% de los trabajadores labora 12 o menos horas extras (en este caso
como la posición 7 también contiene al 12, entonces se incluiría el valor para
decir que trabajan 12 horas o menos) y el otro 50% trabaja 12 o más horas (una
vez más como los datos 9 y 10 también son 12 horas, entonces se afirmaría que
el 50% trabaja al menos 12 horas).
Con relación al Cuartil 3 (Q3) que corresponde al dato 12, que el 75% de los
empleados trabaja 13 o menos horas y el 25% restante 13 o más de esa cantidad
Análisis de riesgos en el proceso e identificación de mejoras rápidas
(se aplica el mismo criterio del Q1 y Q2 dado que existen datos que se repiten en
la posición 13).
También se puede saber con los datos ordenados que el valor mínimo es el 5 y el
valor máximo es el 15 y dentro de la nomenclatura del diagrama de caja, a estos
valores se les denomina bigotes. Finalmente, un estadístico que no aparece pero
que es relevante, es el rango intercuartil, que se obtiene de la diferencia de Q3 -
Q1 y representa al 50% de los datos, en este caso, dado que Q3=13 y Q1=7,
entonces el rango intercuartil es 6, obtenido de 13-7.
En el caso de Minitab, nos proporciona la gráfica de caja, pero no nos muestra los
datos duros (números) de los cuartiles, por lo que en su momento será necesario
colocar el puntero encima del diagrama para que te muestra la información que
hemos obtenido manualmente.
Statistics
También se puede observar que los datos superiores a la mediana tienen menor
dispersión que los inferiores a ella (de 12 a 15 siendo el rango de 3 para la parte
superior en tanto que la inferior es de 5 a 12 siendo el rango de 7). Esto indica
que el 50% de los trabajadores trabajan al menos 12 horas a la semana en
comparación con los trabajadores que laboran mucho menos tiempo extra, de
donde podemos inferir nuevamente, que al menos la mitad de los empleados
están trabajando mucho tiempo extra ocasionando potencialmente que se
preparen mal los cafés solicitados por los clientes.
A manera de cierre de este tema, lo que nos muestra la gráfica de caja y la razón
por la cual es muy importante tenerla siempre en nuestros proyectos de Lean Six
Sigma, es la información que aparece en la gráfica de abajo:
Análisis de riesgos en el proceso e identificación de mejoras rápidas
En ella se identifican los valores atípicos pequeños (que están por debajo de Q1-
1.5*Rango Intercuartil), el valor mínimo (bigote inferior), el cuartil 1, la mediana,
el cuartil 3, el rango intercuartil, el valor máximo y valores atípicos grandes (que
están por encima de Q3+1.5*Rango Intercuartil). Estos datos atípicos (es un valor
que no concuerda con el resto de los datos) normalmente aparecen con un
asterisco ya sea en la parte inferior o superior del diagrama de caja.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Hemos llegado al último tema de la fase de MEDIR, que concluye con determinar
cuál es la capacidad de nuestro proceso para producir artículos buenos.
Recordemos
Objetivo
Consideración
Diferencias
Existen diferentes formas de ver la diferencia entre los datos a corto y largo
plazo. En el corto plazo, básicamente estamos controlando todas las fuentes de
variación, ya sea un turno en particular, una línea de producción, cierto empleado
u operario, pocos proveedores, etc. En términos sencillos, los datos a corto plazo
son una "instantánea" de la habilidad o capacidad del proceso. Para considerar
que se trabaja en el corto plazo, podemos decir que incluye algunos días y hasta
un par de semanas inclusive. Por lo contrario, los datos largo plazo incluyen (en
teoría) toda la variación que podríamos ver en nuestro proceso, las cuales
incluyen, muchos turnos, varias líneas de producción, diferentes empleados,
muchos proveedores, etc., por lo que se convierte en un “video” del desempeño
del proceso. Para considerar que se trabaja en el largo plazo, se puede incluir un
par de meses, aunque generalmente se establece alrededor de 4 meses, aunque
depende mucho de las variables que estemos analizando. Con base en lo
anterior, ya sabes que la variación de largo plazo es mayor que la de corto debido
principalmente a las diferencias de las condiciones de operación, por ejemplo,
temperatura, humedad, múltiples empleados, diferentes proveedores
proporcionando diferente calidad y tipo de materia prima, desgaste de la
maquinaria, etc.
Herramientas
Process capability
Donde:
• Cp : Capacidad potencial del proceso en el corto plazo
• USL : Límite Superior de Especificación
• LSL : Límite Inferior de Especificación
• σST : Desviación estándar de corto plazo
La desviación estándar de corto plazo, es promedio del rango que existe del
subgrupo (muestra o dato) 1 el subgrupo 2, del 2 con el 3 y así sucesivamente,
todo dividido entre la constante d 2 (generalmente de tamaño 2 con un valor de
1.128):
Comprobación de distribución
El Cpk, considera el valor mínimo entre el Cpl y Cpu. El Cpk, toma como referencia
el valor de la media al límite de especificación más cercano.
Donde:
Una vez que el gerente ha validado la confiabilidad del MSA para variables
continuas, entonces solicita a sus empleados recolectar una taza de café de 240
ml, cada 10 minutos durante una jornada de 8 horas. El total de tazas es de 48
unidades (cada una de ellas es llamada subgrupo racional de tamaño 1) y son
medidas en términos de su volumen de 240
Este valor de 1.1781, es un valor relativamente bajo, debido que indica que el
proceso es apenas capaz para producir piezas que cumplen con las
especificaciones del cliente, lo ideal es un valor de Cp=2, que representa un nivel
de Six Sigma, se producen no más de 3.4 PPM defectuosas o no conformes.
La capacidad real, Cpk, la obtenemos con el valor mínimo ya sea de Cpl o de Cpu,
donde para el primero es de 1.1454 y 1.2108 para el segundo, por tanto,
establece cpk a 1.1454, que como muestra la primera gráfica de Minitab, está
redondeado a 2 decimales, siendo 1.15.
Se aprecia que el valor de Cpk es menor al de Cp, siempre ocurre así salvo una
excepción cuando ambos son iguales y esto se da cuando la media del proceso
está centrado en los límites de especificación, en cuyo caso tanto Cp y Cpk son
iguales a 2.
En la gráfica inferior son diferentes escenarios en los que la media del proceso se
mueve y con ello el Cpk es diferente en cada uno de los ejemplos a pesar de que
el Cp=2, debido a que no toma en cuenta la media del proceso como sí lo hace el
Cpk.
Cuando el Cpk es negativo, refleja que más de la mitad de los servicios y/o
productos, son no conformes.
La fórmula para calcular esta capacidad potencial en el largo plazo es muy similar
a la empleada en el corto plazo, con la salvedad de la distribución estándar
empleada. De ahí que el resultado de Pp sea inferior al de Cp, como se muestra
en el cálculo de abajo.
Por lo que se infiere, de acuerdo a lo dicho de la imagen anterior (ejemplo 3), que
el proceso en el largo plazo ya no será capaz, ya que para desgracia de la
compañía, estará produciendo piezas defectuosas.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
• El Límite Inferior de
Especificación es 237, no
existe un valor objetivo, el
Límite Superior de
Especificación es 243, la
Media de la muestra es
239.917, el total de los
datos recolectados es 48
(las tazas de café), la
desviación estándar de
largo plazo (overall) es de
1.00707 en tanto que la de
corto plazo es de 0.8488 (within).
largo plazo, todo en función de las PPM que son inferiores al límite inferior de
especificación como al superior y la suma de ambos. Estos números
representan el total de PPM defectuosas. Es importante considerar que a
pesar de que en la muestra no se observó ninguna pieza (café) fuera de las
especificaciones, la metodología nos indica que en el corto plazo se esperan
alrededor de 435 o 436 (se sugiere siempre el techo), en tanto que en el largo
plazo, aproximadamente 2989.
• Así mismo la gráfica indica que el proceso se está inclinando a poner menos
contenido del promedio, la media del proceso está por debajo del promedio
de la especificación, se espera en el corto plazo más unidades que están por
abajo del límite inferior de especificación, en tanto que en el largo plaz o,
también hay más defectuosos en el límite inferior que en el superior. Se
observa también que en las gráficas de la normal, la variación de largo plazo
es mayor que la de corto, debido fundamentalmente a la variación acumulada
y eso nos genera más defectos o unidades no conformes y por esa razón van
de 436 en el corto plazo a 2989 en el largo.
Los datos referidos aparecen en color verde y el Zbench en color amarillo, que se
puede corroborar con el obtenido por Minitab.
En la tercera, se considera que preparar un café que cumpla con las especificaciones
del cliente tiene la misma probabilidad que cualquier otro café preparado.
Muestra de datos
La tabla siguiente muestra los datos de cafés mal preparados en una sucursal
durante un período de 50 días (2 meses trabajados):
Cuando la aplicamos al caso del café, tenemos que incluir los cafés no conformes
por cada uno de los días y dividirlo entre el total de cafés preparados en ese
lapso, como se muestra en la siguiente operación:
PPM defectuosos
Dado que nos puede interesar tener alguna referencia respecto a los niveles de Z,
debemos buscar el área bajo la curva del lado derecho de la distribución normal
que corresponda a la proporción no conforme, en este caso 0.03855021. Se te
muestra el área acumulada de cola izquierda, entonces deberás restar a 1 la
proporción encontrada (1.00 - 0.03855021 = 0.96144979).
En este caso, el valor más cercano es 0.9616364 que corresponde a una Z =
1.77). Ahí que se está trabajando a 1.77 sigmas.
Si se calculará un valor más preciso, se puede utilizar la fórmula en Excel
“=NORM.S.INV(0.96144979” (la fórmula está expresada en inglés) o bien proceder
de la misma manera cómo se indicó el cálculo de la Z en ese tema. El valor
resultante de Z es 1.76776367. Si se interesará saber cuál es tu Zbench o Zlevel
o ZST, se debe sumar a este valor 1.5, lo que resultaría en 3.26776367 y se
comprueba con el uso de la Calculadora de Sigmas que está disponible como
“Anexo 1 Sigma Calculator.xls” cuyo resultado coincide con lo que se ha estado
haciendo de forma manual.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Análisis de capacidad
Para trabajar con esta distribución es necesario la media del número de defectos,
de errores o de la característica que nos interesa. En el caso del ca fé, aunque
Análisis de riesgos en el proceso e identificación de mejoras rápidas
pudieran ser múltiples los errores al seleccionar la opción del café (expresso con
todas sus variedades, cappuchino, latte, moka, macchiato, etc) en realidad lo que
interesa es la oportunidad de cometer un error porque independientemente de
que seleccione uno incorrecto, solo existe esa misma oportunidad de equivocarse
(una oportunidad es la posibilidad de cometer un error). En este sentido, lo
mismo ocurre con el tipo de leche (deslactosada, light, entera, almendra, etc.),
por lo que bajo esta consideración podemos ya decir, que existen 6
oportunidades para cometer un error al momento preparar un café: 1) decidir si
la bebida es descafeinada; 2) el número de shots; 3) el jarabe empleado; 4) tipo
de leche solicitada; 5) si requiere personalización y 6) el tipo de bebida. De ahí
que puede ocurrir que un café tenga o no un error o múltiples errores y habría
que contabilizarlos para saber cuántos se cometieron con respecto a la cantidad
de bebidas preparadas.
La tabla siguiente muestra los datos de una sucursal de café para una muestra de
100 cafés, seleccionados aleatoriamente en el mismo período de 2 meses y que
pueden o no contener algún tipo de error en las 6 oportunidades mencionadas
en el párrafo anterior.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
A partir de esta información, se puede calcular algunas métricas como son los
Defectos Por Unidad, Defectos Por Oportunidad y Defectos Por Millón de
Oportunidades (DPU, DPO y DPMO respectivamente por sus siglas en inglés), las
cuales indican cómo está operando el proceso o producto con base en la
cantidad de defectos. Es importante seleccionar adecuadamente la métrica
debido a que ayuda a evaluar el rendimiento con relación a las expectativas del
cliente, también sirven de base para los proyectos y objetivos de mejora al mismo
tiempo que para comunicar el nivel de conformidad a nuestros clientes.
Concepto Aplicación
En este caso el valor más cercano es 0.978333 que corresponde a una Z = 2.02, al
que se deberá sumar 1.5 sigmas y obtendrás el valor de 3.52 que es el valor
encontrado con la calculadora. Recuerda que si quisieras un valor de mayor
precisión deberás emplear en Excel la fórmula “=NORM.S.INV(0.978333”, la cual
otorga un valor de 2.02047636 que sumados a 1.5 sigmas es 3.52047636 que es
valor obtenido con la calculadora con redondeo a 5 decimales.
Cualquiera que sea la forma que elijas para calcular el análisis de capacidad,
recuerda que los resultados son los mismos, solo toma en cuenta que cuando
emplees Minitab para calcular el DPO y el DPMO, debes hacer incluir el número
de oportunidades en la operación.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Reflexión final
Aprendizaje
través de los atributos tanto Binomial como Poisson. Has aprendido a calcular
Aplicaciones
difícil comprobar una mejora significativa en los niveles de Sigma, logrando con
seleccionado.
Análisis de riesgos en el proceso e identificación de mejoras rápidas
Referencias
Bibliografía
• Kubiak, T.M. y Benbow, D.W. (2017). The Certified Six Sigma Black Belt
Handbook. United States of America: ASQ
• Munro, R., et. al. (2015). The Certified Six Sigma Green Belt Handbook. USA:
ASQ Quality Press.
• Open Source Six Sigma. (2014). Black Belt Training Materials. USA.
• Wortman, Bill, et. al. (2014). The Certified Six Sigma Black Belt Primer. USA:
Quality Council of Indiana
Materiales de apoyo
Créditos
Aviso legal