Está en la página 1de 72

LEAN SIX SIGMA CON SOFTWARE LIBRE

Ing. M.Sc. José Antonio Medrano García

21 de diciembre de 2017
Índice general
I ASPECTOS BÁSICOS 5

1. INTRODUCCIÓN 6
2. CONCEPTOS BÁSICOS 8
Metodología Lean Six Sigma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Six Sigma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Dene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Measure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Analize . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Improve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Lean Manufacturing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Software Libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
R/RStudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Paquete qcc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Paquete SixSigma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Paquete qualityTools . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Xmind . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Bizagi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Jaamsim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Argo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

II HERRAMIENTAS 21

3. DEFINE (Denir) 23
Diagrama de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Mapa Mental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Diagrama de Flujo o de Proceso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4. MEASURE (Medir) 29
Arbol de CTQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Análisis de Capacidad de Procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Análisis de Sistemas de Medición (MSA) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Muestreo de Aceptación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

5. ANALYZE (Analizar) 30
Diagrama Causa/Efecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Diagrama de Interrelaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Análisis Exploratorio de Datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Análisis Exploratorio Univariado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Variable Cuantitativa Continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

1
ÍNDICE GENERAL 2

Variable Cualitativa (Factor) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37


Análisis Exploratorio Bivariado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Variable Cuantitativa vs. Variable Cualitativa (Factor) . . . . . . . . . . . . . . 39
Pruebas de Hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Análisis de Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Variable Cuantitativa vs. Variable Cuantitativa (Análisis de Regresión) . . . . . 45
Variable Cualitativa vs. Variable Cualitativa (Test de Hipótesis de Independencia) 47
Análisis Multivariado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Análisis de Regresión Multivariada . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Análisis de Regresión Logística . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Análisis Cualitativo de Procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Análisis Cuantitativo de Procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Reproceso, Rolled Throughput Yield (RTY) y la Fábrica Oculta . . . . . . . . . . . . . 55

6. IMPROVE (Mejorar) 59
Simulación de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Simulación de Procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Diseño de Experimentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

7. CONTROL (Controlar) 69
Diagrama de Comportamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
Grácos de Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
Documentación de Procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

Bibliografía 69
Índice de guras

1.1. Mapa Conceptual del contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.1. Componentes de Lean Six Sigma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9


2.2. Ciclo DMAIC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3. Los 7 desperdicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4. R/RStudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5. Grácos producidos por el paquete qcc . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.6. Grácos producidos por el paquete SixSigma . . . . . . . . . . . . . . . . . . . . . . . 16
2.7. Grácos producidos por el paquete qualityTools . . . . . . . . . . . . . . . . . . . . . 17
2.8. Diagramas con Xmind . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.9. Modelación y Simulación en Bizagi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.10. Modelación y simulación en Jaamsim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.11. Simulación de Monte Carlo en Argo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3.1. Carga de Datos de Reclamos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24


3.2. Resultados Análisis de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3. Mapa Mental del Problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.4. Construcción de un Diagrama de Proceso en Bizagi . . . . . . . . . . . . . . . . . . . . . 28

5.1. Cómo hacer un diagrama causa/efecto en Xmind . . . . . . . . . . . . . . . . . . . . . . 31


5.2. Diagrama Causa/Efecto Variabilidad en el % de Cafeína residual . . . . . . . . . . . . . 31
5.3. Construcción de un Diagrama de Interrelaciones en Xmind . . . . . . . . . . . . . . . . . 33
5.4. Tipos de Datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.5. Análisis Exploratorio de Datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.6. Carga de datos de cafeína a RStudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.7. Análisis gráco del contenido de cafeína en los lotes . . . . . . . . . . . . . . . . . . . . 36
5.8. Análisis del Intervalo de Conanza del 95 % para la media . . . . . . . . . . . . . . . . . 37
5.9. Análisis Variable Cualitativa en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.10. Histograma y Boxplot % Cafeína residual . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.11. Boxplot % Cafeína por Extractor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.12. Pruebas de Hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.13. Prueba de Hipótesis para la media de una muestra en R . . . . . . . . . . . . . . . . . . 41
5.14. Prueba de Hipótesis para 2 muestras independientes . . . . . . . . . . . . . . . . . . . . 42
5.15. Test Kruskal-Wallis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.16. Prueba de Hipótesis para muestras pareadas . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.17. Análisis de Varianza, tiempo de atención por departamento . . . . . . . . . . . . . . . . 45
5.18. Análisis de Regresión en R/RStudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.19. Test de Independencia en R/RStudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.20. Cuadro para el Análisis de Valor Agregado . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.21. Análisis de Valor Agregado con Tiempos . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.22. Análisis Cuantitativo de Procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.23. Resultados Análisis Cuantitativo del Proceso . . . . . . . . . . . . . . . . . . . . . . . . 53
5.24. Análisis Cuantitativo de Proceso por Simulación . . . . . . . . . . . . . . . . . . . . . . 54

3
ÍNDICE DE FIGURAS 4

5.25. Análisis Cuantitativo de Procesos con Jaamsim . . . . . . . . . . . . . . . . . . . . . . . 55


5.26. RTY y la fábrica oculta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.27. Efectos de la Fábrica Oculta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.28. RTY en Jaamsim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

6.1. Simulación de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59


6.2. Cilindro y pin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.3. Modelación en Excel/Argo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.4. Resultados Simulación en Argo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.5. Simulación Monte Carlo en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.6. Resultados de la simulación con ordenamiento previo de las piezas . . . . . . . . . . . . 63
6.7. Proceso de aprobación de hipotéca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.8. Modelación y simulación del proceso en Bizagi . . . . . . . . . . . . . . . . . . . . . . . 66
6.9. Modelación y simulación del proceso en Jaamsim . . . . . . . . . . . . . . . . . . . . . . 67
Parte I

ASPECTOS BÁSICOS

5
Capítulo 1

INTRODUCCIÓN
Los sistemas de gestión de calidad y productividad se han convertido en los últimos años en uno de los
pilares de la gran mayoría de organizaciones para afrontar los retos que la globalización presenta. Dentro
de estos modelos de gestión, Lean Six Sigma se constituye en la metodología con mayor aceptación y
crecimiento a nivel mundial por ser la que más se enfoca en el logro de resultados concretos, medibles y
cuanticables.
Una de las principales características de la metodología es el amplio uso de técnicas y herramien-
tas para el análisis y solución de problemas. Estas herramientas pueden clasicarse en dos categorías:
herramientas duras y suaves. Las herramientas duras son aquellas que hacen uso de métodos
cuantitativos, principalmente de carácter estadístico, aunque también abarca otras disciplinas, espe-
cialmente en el ámbito de la Investigación de Operaciones y la Ingeniería Industrial. Las herramientas
suaves son más de carácter cualitativo y que muchas veces se utilizan en un ámbito de trabajo colabo-
rativo en equipo y que permiten procesar las ideas y aportes de todos los miembros del equipo. Muchas
de estas herramientas son comunes con otras metodologías de mejora continua y/o aseguramiento de
calidad.
Existe una gran cantidad de herramientas informáticas (software) que se ofrecen a los practicantes
de la metodología, especialmente a los líderes de proyectos, ya sea a nivel de Green Belt o Black Belt.
Estas herramientas de software son, en su mayoría, de tipo comercial, por lo que conllevan un pago de
licenciamiento y otros costos que muchas veces son considerables y están fuera del alcance de algunas
personas y empresas pequeñas. Dentro de este grupo de productos, pueden mencionarse varios que son
casi estándar a nivel de la industria y que gozan de un amplio reconocimiento dentro de los expertos en
la metodología. Entre estas herramientas se puede mencionar a Minitab
1 que es quizá el mas conocido
2
y utilizado a nivel global en el ámbito de LSS , pero también puede incluírse en esta lista a JMP
3 que
4
es producido por uno de los gigantes del software estadístico, como es SAS . Adicionalmente existen
también herramientas que se integran con hojas electrónicas, especialmente Microsoft Excel en forma de
complementos, tal como Sigma XL
5 la cual permite utilizar el ya familar interfase de Excel para realizar
análisis de datos y construír representaciones grácas muy diversas para proyectos Lean Six Sigma.
Las herramientas anteriormente mencionadas son, sin duda, muy completas, poderosas y contribuyen
signicativamente en los proyectos de mejora, pero, como se mencionó anteriormente, vienen con una
etiqueta de precio que va desde unos cientos hasta varios miles de dólares por licencia. La buena noticia
para los practicantes de LSS es que también existe una considerable cantidad de herramientas de software
que pertenecen a la categoría de Software Libre o FOSS (Free and Open Source, por sus siglas en inglés)
o simplemente software gratuito que puede perfectamente sustituír al software comercial en los proyectos
brindando las mismas funcionalidades y en algunos casos, mejores opciones que las herramientas de pago.
Estas notas surgen como resultado de atender una necesidad especíca. Existen una gran cantidad
de textos de muy buena calidad que abarcan los principios y fundamentos de la metodología Lean Six

1 http://www.minitab.com
2 Asi se abreviará Lean Six Sigma de aquí en adelante
3 www.jmp.com
4 www.sas.com
5 www.sigmaxl.com

6
CAPÍTULO 1. INTRODUCCIÓN 7

Figura 1.1: Mapa Conceptual del contenido

Sigma. Este material no pretende ser una referencia principal para aprender sobre los aspectos básicos
de LSS. Mas bién, estas notas han sido creadas para servir como un complemento a cualquiera de los
textos que existen y que abarcan con mayor detalle el tema. El objetivo principal de estas notas es
ilustrar el uso de algunas de las herramientas de software libre y/o gratuito en las diferentes etapas de
un proyecto LSS, por medio de ejemplos prácticos, sin entrar a discutir en detalle la teoría detrás de
cada una de las metodologías, sino solamente enfocándose en la aplicación y la interpretación de los
resultados obtenidos. Como ya se mencionó, el lector puede, si lo desea, profundizar en los fundamentos
teóricos de las distintas herramientas en la abundante literatura que sobre el tema existe y de la cual se
proporcionan algunas referencias en la bibliografía de estas notas.
Capítulo 2

CONCEPTOS BÁSICOS
Como se mencionó en la introducción, estas notas no pretenden ser una referencia detallada sobre los
aspectos teóricos de la metodología LSS, ya que para eso existe una gran cantidad de libros y otras fuentes
que abarcan estos temas con un muy buen nivel de profundidad y detalle. Sin embargo, se considera
conveniente dar una muy breve descripción de los principales términos que se estarán utilizando en
el transcurso de estas notas para efectos de establecer el contexto y la terminología suciente para la
aplicación de las distintas herramientas.

Metodología Lean Six Sigma


La metodología LSS ha tomado, en los últimos años, una gran relevancia en el mundo empresarial
como un modelo de gestión para la mejora de la calidad y ha sobresalido por encima de otros sistemas
por una simple y sencilla razón que puede resumirse en una palabra: resultados. A diferencia de los
otros modelos (ISO 9000, EFQM, Kaizen, etc.), LSS se enfoca directamente en proyectos de solución de
problemas y mejora de procesos/productos que tienen un efecto directo y medible sobre los resultados
nancieros de las organizaciones. Todo proyecto de LSS debe generar benecios nancieros, ya sea en
forma directa o indirecta, pero denitivamente de forma que puedan ser medidos y cuanticados.
La metodología LSS es en realidad la combinación de dos metodologías similares y complementarias:
a) Six Sigma, el modelo desarrollado por Motorola en la década de 1980 y cuyo principal objetivo es
la reducción de la variabilidad en las características de calidad de un producto o proceso y b) Lean
Manufacturing, uno de los principales aportes del TPS (Toyota Production System) a las organizaciones
de todo tipo y que se enfoca principalmente en la búsqueda, cuanticación y reducción/eliminación
del desperdicio, entendiéndose por esto último, todo aquello que es innecesario y/o no agrega valor al
producto/servicio/proceso.
A continuación se dará una breve descripción de cada una de las metodologías individualmente:

Six Sigma
Los origenes de Six Sigma se remontan a mediados de la década de 1980 cuando un ejecutivo de
Motorola, Bill Smith, acuña el término Seis Sigma para referirse a un proceso que es capaz de producir
resultados cuya variabilidad, representada por su desviación estándar (σ) es tan pequeña que las no
conformidades (productos o procesos fuera de especicaciones) ocurren solamente en promedio 3.4 veces
por cada millón de oportunidades.
En realidad Motorola ya había iniciado, antes de la llegada de Bill Simth, un programa agresivo de
mejora de calidad donde se integraban muchos conceptos que ya eran conocidos a nivel mundial gracias
a lo que se conoció como el milagro japonés y que habían catapultado a Japón como una potencia
económica y tecnológica global. La combinación de losofía (Kaizen, Total Quality Management, etc.) y
herramientas para la solución participativa de problemas habían hecho de varias compañías japonesas,
líderes mundiales en calidad y rentabilidad y entre estas compañías destacaba Toyota con su Toyota
Production System o TPS. Sin embargo, Motorola y Smith aportaron dos cosas que llevaron la búsqueda

8
CAPÍTULO 2. CONCEPTOS BÁSICOS 9

Figura 2.1: Componentes de Lean Six Sigma

de la excelencia mucho mas allá: a) un indicador que permitía medir en forma objetiva y sin ambigüedades
el nivel de calidad que una organización alcanzaba en uno o varios de sus indicadores de desempeño, y
b) Una metodología concreta enfocada a proyectos especícos para la solución de problemas y la mejora
continua mediante la reducción de la variación en las características críticas para la calidad (CTQ o
Critical to Quality, por sus siglas en inglés). Esta metodología, aunque está basada en el ya conocido
ciclo PHVA (Planear, Hacer, Vericar, Actuar) es mucho más detallada y prescriptiva sobre la forma
en que este proceso debe realizarse, en lugar de dejarlo a criterio de la organización. Esta metodología
se conoce como DMAIC (por las siglas en inglés, Dene, Measure, Analyze, Improve & Control). A
continuación una breve descripción de cada una de estas etapas:

Dene
La etapa de denición (Dene) del ciclo DMAIC es fundamental para garantizar el éxito del proyecto
y la efectiva solución del problema que se está abordando. Esta etapa tiene como objetivo primordial la
correcta denición y delimitación de problema a resolver, la denición del equipo de proyecto, la identi-
cación preliminar de los benecios nancieroscomo un software de BPMs del proyecto, la denición de
el (los) aspecto(s) que se considera(n) críticos para la calidad (CTQ) que se busca mejorar y un mapa
de alto nivel del proceso sobre el cual se va a trabajar. Muchos de los aspectos importantes del proyecto
se empiezan a esbozar desde esta etapa pero de una manera mas general y cualitativa.

Measure
La etapa de medición (Measure) tiene como objetivo la recolección de datos que permitan dimensionar
el problema de una forma cuantitativa. El resultado principal de esta etapa es establecer lo que se
denomina Línea base que se reere a la situación actual del problema respecto a alguno de los
indicadores o CTQs. Esto se hace con el propósito de tener un punto inicial de referencia y comparación
para poder mostrar si al nal del proyecto se ha logrado una mejora que pueda ser demostrada en forma
CAPÍTULO 2. CONCEPTOS BÁSICOS 10

Figura 2.2: Ciclo DMAIC

objetiva al comparar los resultados posteriores a la mejora con la línea base original. En esta etapa se
inicia a hacer uso intensivo de la metodología estadística y de herramientas cuantitativas.

Analize
Esta es la etapa donde se hace uso de la mayor cantidad de herramientas cuantitativas para poder
analizar a profundidad toda la información recabada durante la etapa de medición. El principal resultado
que se debe producir en esta etapa es poder identicar la causa raíz del problema. El concepto de Causa
Raíz es fundamental en la metodología de LSS ya que uno de los errores más comunes que cometen las
organizaciones al momento de resolver problemas es atacar los efectos del problema y no las causas, por
lo que en LSS, antes de pensar en implementar cualquier solución o mejora, se debe tener certeza que
se está eliminando la(s) causa(s) principal(es) del problema para garantizar que el problema no volverá
a resurgir al poco tiempo y así evitar que el proceso de solución se lleve a cabo mediante ensayo/error.
Aunque la metodología LSS se apoya fuertemente en herramientas estadísticas, en esta etapa se
hace uso de casi cualquier técnica en el campo de los métodos cuantitativos y la ingeniería, por lo que
mientras más armas se tengan en el arsenal, mas probable es que se logre el objetivo.

Improve
La etapa de mejora es donde se deben proponer y evaluar las potenciales soluciones al problema,
basado en los resultados de la etapa previa, es decir, el análisis. Esta etapa debe recurrir a diferentes
metodologías para promover la creatividad de los miembros del equipo de proyecto de manera que se
puedan genera ideas para eliminar las causas raíz del problema. En esta etapa es común la experimenta-
ción y la simulación para evaluar el impacto de las soluciones propuestas en la(s) variable(s) de interés
o CTQ.

Control
Una vez que se ha implementado una solución efectiva para el problema, es necesario garantizar
la sostenibilidad en el tiempo de la mejora en los resultados. La etapa de Control hace uso de las
herramientas del Control Estadístico de Procesos para monitorear el desempeño de los CTQ y también
se hace uso de las herramientas de aseguramiento de los sistemas tradicionales de gestión, como lo son
la documentación de procesos, estandarización, auditorías, etc. para validar que el desempeño de los
procesos y/o productos se mantenga en el tiempo.

Lean Manufacturing
El concepto de Lean Manufacturing (Manufactura Esbelta) está íntimamente ligado a Toyota y su
sistema de producción que ha sido la fuente y el origen de muchas de las herramientas y metodologías
utilizadas en la actualidad a nivel mundial para todos los modelos y sistemas de mejora de calidad y
CAPÍTULO 2. CONCEPTOS BÁSICOS 11

Figura 2.3: Los 7 desperdicios

productividad. El concepto central alrededor del cual gira la idea de Lean es el de Muda, que es
el término en japonés para referirse al desperdicio. Sin embargo, ese concepto es mucho más amplio
que lo que se entiende por desperdicio en el mundo occidental. Dadas las características geográcas
y las condiciones naturales del país, la cultura japonesa ha orecido a pesar de las serias limitantes
que su territorio les presenta, entiéndase, la escasez de recursos naturales, materias primas, tierra para
agricultura, etc. así como la gran cantidad de población que vive en la isla. Ese enfoque losóco y
la búsqueda cuasi religiosa de formas para eliminar el desperdicio y aprovechar al máximo los escasos
recursos que caracteriza a la cultura japonesa ha permeado a todo nivel de la sociedad, llegando a ser
el pilar fundamental del éxito empresarial de muchas organizaciones, especialmente Toyota, que ha sido
por décadas la compañía automotriz más rentable del mundo.
En el contexto del Toyota Production System, muda o desperdicio se reere a todo aquello que
se consideraPara asegurarse que innecesario, que no agrega valor al proceso o producto pero que sin
embargo consume recursos (trabajo, tiempo, espacio, materiales, etc.) por lo que es necesario identicarlo
para posteriormente eliminarlo, lo que trae como resultado una reducción signicativa de costos que
incrementa la rentabilidad de la empresa.
Se considera que el padre del TPS fue el ingeniero japonés Taiichi Ohno, quién hizo los mayores apor-
tes al sistema de Toyota en las décadas de 1950 y 1960, siendo el pionero de muchas de las herramientas
y metodologías que han sido adoptadas por empresas de todo tipo alrededor del mundo para mejorar
su calidad y productividad. Entre estos aportes que Ohno hizo, quizá uno de los más importantes es
el de haber denido y clasicado los tipos de desperdicio que se pueden encontrar en un entorno de
producción, aunque estos conceptos han sido extendidos a cualquier tipo de organización.
La clasicación original de las mudas denidas por Taiichi Ohno eran siete, las cuales se listan a
continuación:

Transporte

Inventario

Movimiento

Espera

Sobreproducción

Sobreprocesamientocomo un software de BPM


CAPÍTULO 2. CONCEPTOS BÁSICOS 12

Defectos

Sin embargo, posteriormente se agregó un nuevo desperdicio a la lista, especícamente el que se reere
al desperdicio del talento y la creatividad del personal. En recientes congresos sobre Lean se ha discutido
sobre un nuevo tipo de desperdicio que es especíco al sector de la construcción, denominado Making-
do cuya idea seminal es atribuída al Doctor Lauri Koskela.
En síntesis, la metodología LSS combina los objetivos de ambas metodologías y entonces podría
un sistema de gestión, una losofía y una metodología que busca la mejora
decirse que es
continua de los productos y procesos de una organización por medio de la sistemática
búsqueda y eliminación de las causas de la variación y del desperdicio, lo que contribuye
a mejorar la calidad y conabilidad de los productos y servicios trayendo como resultado,
una mayor rentabilidad y sostenibilidad

Software Libre
El movimiento de software libre de código abierto (Free and Open Source Software o FOSS)
1 surgió
durante la década de 1980 como una respuesta al cambio en el modelo de negocios en el mundo de la
informática. Anteriormente, los programas de computadoras eran incluídos como parte de la venta del
equipo o hardware y era permitido realizar copias del mismo y tener acceso incluso al código fuente
para poder hacer modicaciones para adaptarlo a las necesidades particulares. Con el advenimiento

®
del mercado de programas informáticos, principalmente impulsado a nales de la década de 1970 con
el surgimiendo de Microsoft , el software se convirtió en un producto que se vendía por separado,
bajo un modelo de licenciamiento para su uso, lo cual implica una serie de restricciones ya que las
compañías desarrolladoras mantienen todos los derechos sobre el mismo, lo cual impide al comprador
copiarlo, instalarlo en otras computadoras, ver el código fuente para entender su funcionamiento o hacer
modicaciones o adaptaciones de acuerdo a sus propias necesidades.
2
En 1983 Richard Stallman , un académico e informático de MIT funda el movimiento de software
libre cuyo objetivo es desarrollar programas que puedan ser de libre acceso para quienes deseen usarlos.
Las características de una aplicación de software libre son principalmente las siguientes:

Puede ser obtenido en forma gratuita, aunque esto no siempre es totalmente cierto, ya que algunas
veces se puede cobrar el costo del medio en el cual se distribuya, pero no existe un pago por licencia
para su uso.

Puede copiarse las veces que se desee e instalarse en todas las computadoras que se requiera, sin
limitaciones ni restricción alguna.

Se puede tener acceso al código fuente para poder estudiar y comprender su funcionamiento.
También puede modicarse si es necesario para adaptarlo a distintas necesidades.

Este último aspecto es especialmente importante en el caso especíco de los programas cientícos debido
a que en el proceso de investigación y desarrollo, así como en la solución de problemas, no es válido el
modelo de caja negra utilizado por el software comercial, donde se aceptan los resultados obtenidos
sin validar la forma de obtenerlos, por lo que es sumamente importante entender los algoritmos que los
programas utilizan.
Con la llegada y expansión de internet a nivel global, el movimiento de software libre se ha fortalecido
y extendido de tal forma que en la actualidad, los programas desarrollados bajo este modelo, compiten
con los programas comerciales en calidad, incluso en algunos casos superando a sus pares comerciales.
Muchas organizaciones en todo el mundo han adoptado el sofware libre por diversas razones, siendo
una de ellas el ahorro en los costos de licencia, pero en muchos casos no es la principal, sino que se ha
comprobado la calidad y versatilidad de los programas libres por encima del software comercial.
En estas notas se hará uso de varias aplicaciones que pertenecen a la categoría de software libre, lo
cual presenta una serie de ventajas para el desarrollo del programa del curso. Entre las ventajas podemos
mencionar las siguientes:

1 http://en.wikipedia.org/wiki/Free_and_open-source_software
2 http://es.wikipedia.org/wiki/Richard_Stallman
CAPÍTULO 2. CONCEPTOS BÁSICOS 13

Todos los programas a utilizar pueden ser descargados de internet sin ningún costo.

Pueden instalarse en las computadoras personales de los estudiantes, lo que les permite tenerlos

® ®
siempre disponibles para realizar prácticas y tareas. La mayoría de ellos puede ser instalado en
diversos sistemas operativos como MS Windows , Linux o Mac OS

Pueden utilizarlo sin restricción, incluso para nes comerciales por lo que pueden aplicarlo en su
ejercicio profesional.

Existe una gran cantidad de material de referencia disponible en internet para aprender a utilizarlo.

Los programas se encuentran en constante desarrollo por parte de una comunidad muy activa
alrededor del mundo, por lo que frecuentemente se liberan versiones actualizadas y mejoradas.

Adicional al software considerado estrictamente Software Libre, en este material se hace uso también de
herramientas que, aunque no pueden ser consideradas libres en su totalidad, cumplen al menos con las
cinco características listadas en el párrafo anterior. Esto garantiza que los practicantes de la disciplina
de LSS no tengan que pagar costos de uso y licenciamiento de las herramientas a utilizar. Con estas
aplicaciones, cualquier organización, de cualquier tamaño, giro de negocio, tipo de operación, etc. puede
implementar un programa de LSS sin necesidad de erogar ni un solo centavo en licencias de uso de
software. Puede instalar los programas en las computadoras de todos los empleados, especialmente los
miembros de los equipos de mejora, para que sean utilizados en forma intensiva, para compartir y
contribuír con los otros miembros en todas y cada una de las etapas del ciclo DMAIC, incrementando
la capacidad del equipo de tener éxito en la solución de problema bajo análisis.
A continuación se hace una breve reseña de cada una de las herramientas de software a usar.

R/RStudio
Dentro del mundo del software libre se han producido verdaderas joyas que han contribuido signi-
cativamente a la comunidad cientíca y académica en el mundo. El software estadístico R
3 es quizá
uno de los mejores ejemplos de esta armación. R se ha convertido en los últimos años en el software
estadístico mas utilizado en el mundo en casi todos los ámbitos, académico, cientíco, industrial, etc.
y ha reemplazado a los programas comerciales a todo nivel. Quizá el único aspecto que puede resultar
intimidante respecto a R es que se trata de un lenguaje, más que un software con interfase gráco para
el usuario como otros programas comerciales. Aunque esto puede considerarse una desventaja inicial-
mente, en realidad, se vuelve una de sus principales fortalezas en el largo plazo y lo hace sobresalir por
encima de los demás, dado que permite algo que otros programas no permiten, el concepto de análisis
reproducible, es decir, la capacidad de permitir que otras personas puedan realizar exáctamente el
mismo proceso analítico sobre los mismos datos para obtener exáctamente los mismos resultados.
RStudio es un software complementario a R y que hace la función de un IDE (Integrated Development
Environment) o sea, un entorno integrado de desarrollo que permite tener en la misma aplicación, vistas
separadas de los diferentes aspectos de la herramienta, como por ejemplo, el código, los grácos, los
objetos activos, la ayuda, etc.
Existe en la actualidad una gran cantidad de literatura y fuentes de información dedicada a difundir
el conocimiento sobre el uso de esta maravillosa herramienta, por lo que en estas notas no se estará
haciendo una introducción a los aspectos generales y básicos de R sino que el enfoque será puramente
en la aplicación del software a las diferentes etapas de un proyecto Lean Six Sigma.
Una de las mejores características del software libre y en especial de R es la enorme comunidad de
personas que contribuyen de diversas formas a desarrollar y mejorar el software constantemente. R es
un software que se puede extender a un sinfín de aplicaciones particulares mediante el uso de paquetes
complementarios que han sido desarrollados con un n especíco por parte de personas expertas en
el área de conocimiento. Esto ha hecho que existan miles de paquetes disponibles para casi cualquier
aplicación analítica. Al momento de escribir estas notas la cantidad de paquetes complementarios está
por encima de los 11000, algo que lo hace mucho más completo que cualquier software comercial. Dentro

3 https://www.r-project.org/
CAPÍTULO 2. CONCEPTOS BÁSICOS 14

Figura 2.4: R/RStudio

de esta gran variedad de paquetes por supuesto que existen aquellos que fueron creados especícamente
para las herramientas analíticas de LSS, por lo que a continuación se hace una muy breve reseña de los
paquetes que se estarán usando en el resto de este material.

Paquete qcc
El paquete denominado qcc que viene de las iniciales quality control charts
4 es uno de los más
útiles y completos paquetes orientados a aplicaciones de análisis y control estadístico de procesos, que
a su vez es parte fundamental de la metodología LSS.
Como su nombre lo sugiere, el paquete qcc está diseñado especícamente para la creación de Grácos
de Control Estadístico de Procesos o SPC, aunque sus funcionalidades se extienden mas allá de esto.
Entre los grácos de control que pueden realizarse con este paquete se pueden mencionar los siguientes:

Grácos de Control por Variables

Grácos de Control por Atributos

Grácos de Control para datos simples

Grácos de Control de Sumas Acumuladas (CUSUM)

Pero también es posible construír los siguientes tipos de grácos y análisis:

Diagrama de Pareto

Análisis de Capacidad de Procesos

Curvas Características de Operación

Este paquete constituye uno de los más útiles dentro del arsenal de paquetes de R para aplicaciones de
análisis y mejora de procesos por lo que será uno de los más utilizados en estas notas.

Paquete SixSigma
El paquete SixSigma fue creado como complemento de dos libros, cuyo detalle puede encontrarse en
la bibliografía de estas notas con las referencias:[2] y [1].
Este paquete contiene algunas funcionalidades similares a las del paquete qcc, es decir, la capacidad
de crear grácos de control y también realizar análisis de capacidad de procesos, pero también contiene

4 Grácos de Control de Calidad, por sus siglas en inglés


CAPÍTULO 2. CONCEPTOS BÁSICOS 15

(a) Diagrama de Pareto (b) Gráco de Control

Figura 2.5: Grácos producidos por el paquete qcc

otras funciones adicionales que no contiene el anterior y que lo hacen un excelente complemento. Esta es
otra de las enormes bondades de R y su ecosistema de paquetes, no existe ninguna restricción en utilizar
diferentes paquetes en forma combinada por lo que se pueden complementar varios paquetes para lograr
un resultado que no se obtendría con cada paquete en forma individual.
Entre las funcionalidades mas útiles del paquete SixSigma y que son complementarias del paquete
qcc se pueden mencionar las siguientes:

Intervalos de conanza para la media

Análisis de Reproducibilidad y Repetitibilidad de Medicones (Gage R&R)

Análisis de la Función de Pérdida de Taguchi

Análisis de Capacidad de Procesos

Grácos de Control

Paquete qualityTools
El paquete qualityTools fue diseñado especícamente para la metodología Six Sigma y contiene una
gama de funcionalidades para cada una de las etapas en el ciclo DMAIC. Comparte funcionalidades
con los dos paquetes mencionados anteriormente, es decir, puede realizar varios de los mismos análisis
y grácas que los anteriores pero también aporta funcionalidades únicas que lo hacen muy útil por sí
mismo.
Entre las funcionalidades que tiene este paquete se pueden destacar:

Análisis de Pareto

Análisis Gage R&R

Análisis de Capacidad de Procesos

Diseño de Experimentos

Supercie de Respuesta

Adicionalmente a estos, se utilizarán otros paquetes que no se describirán porque no son especícos para
la metodología LSS sino que sirven para otros propósitos como: creación de grácos de alta calidad,
manipulación y reestructuración de datos, ampliación de las funciones analíticas y estadísticas, etc.
Entre estos paquetes se pueden mencionar los siguientes:
CAPÍTULO 2. CONCEPTOS BÁSICOS 16

(a) Intervalo de Conanza (b) Análisis Gage R&R

Figura 2.6: Grácos producidos por el paquete SixSigma

ggplot2

reshape2

En síntesis, la combinación de los paquetes anteriormente mencionados con las funcionalidades nativas
del paquete base de R lo convierten en la herramienta más poderosa entre los distintos aplicativos
estadísticos y de análisis de datos, incluyendo aquellos cuya licencia es de tipo comercial y que tienen un
costo de varios cientos o incluso miles de dólares, por lo que no hay ninguna discusión sobre porqué el
ecosistema R/RStudio/paquetes es la elección mas obvia para cualquier practicante de la metodología
LSS.

Xmind
Aunque la metodología LSS se basa primordialmente en herramientas duras o cuantitativas, tam-
bién es muy común recurrir a herramientas de tipo cualitativo o herramientas suaves, principalmente
en las primeras etapas del ciclo DMAIC donde mucho del trabajo que se realiza es de tipo colaborativo
o participativo, donde se requiere plasmar ideas de una forma rápida, interactiva y visual.
Entre las herramientas grácas mas útiles en las etapas iniciales de cualquier proyecto pueden men-
cionarse los mapas mentales o mapas conceptuales y es aquí donde una herramienta como Xmind
5
sobresale por su versatilidad, sencillez y capacidad de producir grácos de alta calidad y utilidad.
Aunque el objetivo principal de Xmind es la creación de mapas mentales o conceptuales, en realidad
su estructura jerárquica para la construcción de grácos lo hace más que apropiado para otro tipo de
grácos muy utilizados en la metodología LSS, entre los cuales se puede mencionar:

Diagramas de Causa-Efecto o Ishikawa

Organigramas

Diagramas de Interrelación

Arboles de Decisión
5 www.xmind.net
CAPÍTULO 2. CONCEPTOS BÁSICOS 17

(a) Análisis Gage R&R (b) Supercie de Respuesta

Figura 2.7: Grácos producidos por el paquete qualityTools

Xmind viene en dos versiones, una version gratuita y otra versión comercial que requiere el pago de una
licencia, aunque para efectos prácticos, la versión gratuita es más que suciente para los propósitos que
se explicaron anteriormente y será la que se utilizará aquí. Varias de las guras de estas notas fueron
creadas utilizando Xmind en su versión gratuita.

Bizagi
Bizagi
6 es un programa que pertenece a la categoría de software para BPM, que signica Business
Process Management o Gestión de Procesos de Negocio. Se trata de una herramienta cuyo principal
objetivo es la automatización de procesos de negocio en organizaciones. Estas herramientas permiten
que los procesos de tipo transaccional, es decir, aquellos que se mueven a través de distintas áreas o de-
partamentos y que requieren la participación de muchos actores, puedan ejecutarse en forma automática
a través de estas aplicaciones.
La suite completa de Bizagi se compone de dos partes:
a) Un modelador de procesos
b) Un motor de ejecución
El motor de ejecución de Bizagi, que permite la ejecución y automatización de los procesos no es
gratuito, sin embargo su modelador sí lo es, puede ser descargado, instalado y utilizado en todas las
computadoras que se desee y para cualquier propósito que se desee y será éste el que se estará utilizando
en este material ya que es el que tiene las funcionalidades que son de suma utilidad para un proyecto
de LSS. Entre estas funcionalidades estan las siguientes:

Modelación de procesos

Documentación de procesos

Simulación de procesos

6 www.bizagi.com
CAPÍTULO 2. CONCEPTOS BÁSICOS 18

(a) Mapa conceptual (b) Diagrama Causa/Efecto (c) Organigrama

Figura 2.8: Diagramas con Xmind

(a) Modelo de Proceso de Negocio (b) Simulación de Procesos

Figura 2.9: Modelación y Simulación en Bizagi


CAPÍTULO 2. CONCEPTOS BÁSICOS 19

Figura 2.10: Modelación y simulación en Jaamsim

Jaamsim
Jaamsim
7 es una de esas raras y valiosas joyas del software libre de las cuales poca gente conoce
pero que tienen un valor incalculable y una utilidad enorme para la comunidad técnica, cientíca y
empresarial. Se trata de un software totalmente libre y gratuito, desarrollado en java, por lo que puede
ser ejecutado en cualquier plataforma, cuyo principal propósito es la simulación de eventos discretos. Es
una alternativa para otras herramientas de simulación de tipo comercial, como lo es Rockwell Arena ,
8
9
Simul8 o Simio
10 cuyo costo las hace prohibitivas para personas individuales y pequeñas organizaciónes,
ya que una licencia de uso puede llegar a cotizarse en varios miles de dólares.
Jaamsim tiene la capacidad de modelar y simular casi cualquier tipo de proceso, ya sea de manufac-
tura, de servicios, transaccionales, etc. Es un software muy exible, aunque al principio puede parecer
que la curva de aprendizaje es pronunciada debido a que la modelación se hace mediante la combina-
ción y parametrización de distintos objetos. Existe, sin embargo, una muy buena cantidad de material
de apoyo y ejemplos desarrollados que pueden ser descargados y que ayudan signicativamente a su
aprendizaje, ya que pueden ser analizados para entender la forma correcta de utilizar cada objeto, sus
diferentes características y la forma correcta de parametrizarlos. También hay un foro de ayuda que
es gestionado por los autores del software y que generamente responden en forma rápida a cualquier
solicitud de ayuda que se les haga.

Argo
Todas las herramientas anteriormente mencionadas son programas stand alone, es decir, que se
instalan y funcionan por sí mismos sin necesidad de otro software adicional, excepto este. Argo
11 es
una aplicación que pertenece a la categoría de los Excel Add In's es decir, complementos para Microsoft
Excel. Para su instalación y uso es necesario contar previamente con una instalación de Excel.
Argo es una herramienta cuyo propósito es la Simulación de Monte Carlo para modelos desarrollados

7 www.jaamsim.com
8 https://www.arenasimulation.com/
9 https://www.simul8.com/
10 https://www.simio.com/
11 http://boozallen.github.io/argo/
CAPÍTULO 2. CONCEPTOS BÁSICOS 20

Figura 2.11: Simulación de Monte Carlo en Argo

en hojas electrónicas, en este caso, Microsoft Excel. Por medio de este complemento es posible realizar
lo siguiente:

Generación de números aleatorios provenientes de mas de 30 distribuciones de probabilidad.

Ejecución de la simulación de miles de datos de entrada

Funciones para analizar los resultados de la simulación

Generación de grácos y tablas con los resultados.


Parte II

HERRAMIENTAS

21
22

Cada uno de los siguientes capítulos está dedicado a demostrar el uso de las distintas aplicaciones
de software mencionadas en la parte I en cada una de las etapas del ciclo DMAIC. Como se mencionó
el la introducción, las demostraciones se harán de una forma práctica, mediante el desarrollo de ejem-
plos sencillos pero ilustrativos sobre la forma como estos recursos pueden ser aprovechados durante el
desarrollo de las diferentes etapas de un proyecto LSS. Como ya se indicó, toda la teoría que sustenta
cada una de las metodologías que se exponen a continuación ha sido ampliamente cubierta en muchas
fuentes que están disponibles para los lectores de estas notas y los practicantes de LSS, en forma de
libros, revistas, artículos, sitios web, etc. algunos de los cuales se consignan al nal de estas notas en la
sección de Bibliografía.
Es también de suma importancia aclarar para efectos del manejo de expectativas, que estas notas no
pretenden ser tutoriales exhaustivos sobre el uso de cada una de las herramientas de software utilizadas.
Para esto también existen una plétora de recursos disponibles en línea, en forma de videos, páginas web
interactivas, documentos, etc. que presentan el material de una forma mucho más ecaz de lo que puede
lograse por medio de estas notas, por lo que para los efectos prácticos de este material, se asume que el
practicante de LSS tiene ya instaladas dichas aplicaciones en su computador y que tiene al menos una
noción básica del uso de las mismas.
Como una ayuda para los lectores de este material y para los practicantes de esta metodología,
los archivos electrónicos con los diferentes ejemplos que se muestran en los siguientes capítulos, están
disponibles en el siguiente enlace web:

https://www.dropbox.com/sh/fo01zw30ghhh8u5/AADmd8HP_bf5-mponqjLipbka?dl=0

Accediendo a este sitio, por medio de copiar/pegar el enlace anterior en su navegador, el lector
puede tener acceso, para su descarga, a los archivos correspondientes a cada uno de los ejemplos, en el
formato respectivo de cada una de las aplicaciones para poder acompañar y reproducir el desarrollo del
material, con el objetivo de evitar el tedio de tener que recrear el contenido desde cero. Esto le permite
al lector enfocarse en entender y analizar en detalle cada uno de los ejercicios, modicarlos, extenderlos
y ejecutarlos las veces que sea necesario para obtener el mayor benecio de estas notas.
Capítulo 3

DEFINE (Denir)
La etapa de denición, como ya se expuso anteriormente, tiene por objetivo la correcta denición
y delimitación del problema que da origen al proyecto de mejora. En esta etapa se explora de manera
preliminar el problema y toda la información que sustenta la decisión de seleccionar el proyecto por
encima de otros que pudieran desarrollarse, lo que incluye aspectos de tipo administrativo, operativo,
nanciero y de servicio. Algunas de las herramientas utilizadas en esta fase son principalmente de tipo
cualitativo, aunque también hay algunas herramientas de tipo cuantitativo que pueden ser útiles en este
punto.

Diagrama de Pareto
Los proyectos LSS usualmente surgen como un mecanismo para dar solución a los problemas que
aquejan a las organizaciones y que las hacen menos rentables y poco competitivas. La pregunta que se
deben hacer las empresas para identicar las oportunidades para el desarrollo de proyectos de mejora
aplicando la metodología LSS es ¾donde está el dolor?, esto, para efectos prácticos signica, dónde
están los síntomas mas evidentes de problemas que afectan la calidad, productividad y servicio, lo que
a su vez se traduce en costos y pérdida de ventas.
Una de las fuentes principales de información que lleva a la identicación y selección de proyectos
LSS es la de los reclamos o quejas de los clientes, ya sea internos o externos. Las quejas y reclamos
son quizá la forma de dolor mas evidente y fácil de identicar porque viene directamente de quienes
sufren ese dolor como resultado de productos y procesos que no cumplen sus expectativas. Muchas
organizaciones grandes a nivel global han implementado procesos robustos para el registro y análisis
de reclamos porque han entendido que se trata de una fuente extremadamente valiosa para determinar
dónde se encuentran las fallas principales en los procesos y que puede utilizarse para enfocar y priorizar
los esfuerzos de mejora de una forma objetiva. Muchas organizaciones han entendido que un reclamo es
un regalo hecho por alguien a quién le importa que la organización mejore.
En el análisis y priorización de información de reclamos, una de las técnicas más conocidas dentro
de la caja de herramientas de calidad y mejora continua, es el Análisis de Pareto. Esta herramienta, a
la que casi todos llaman el análisis 80/20, tiene su origen en el siglo XIX por medio del economista
italiano Vilfredo Pareto, quién aplicó el principio a la distribución de la riqueza. Sin embargo, ya en el
siglo XX, el Doctor Joseph Juran, uno de los pioneros de la revolución de la calidad, fue quién propuso
que ese mismo principio se presentaba en casi todos los fenomenos dentro de un proceso de manufactura
donde una pequeña cantidad de causas daba origen a muchos efectos, lo cual denominó el principio de
los pocos vitales, muchos triviales y que se ha convertido en uno de los principales criterios para la
priorización y selección de oportunidades de mejora a nivel mundial.
Un Análisis de Pareto puede realizarse de dos formas:
a) Solamente tomando en cuenta la frecuencia de ocurrencia de los diferentes tipos de problemas.
b) Tomando en cuenta el impacto (en tiempo o costo) que cada una de las tipologías de problemas
representa.

23
CAPÍTULO 3. DEFINE (DEFINIR) 24

(a) Datos en Excel (b) Código en R

Figura 3.1: Carga de Datos de Reclamos

En el siguiente ejemplo se estará ilustrando ambas formas de realizar este análisis utilizando R y RS-
tudio. Para esto, se hará uso de la pestaña denominada Reclaims del archivo de datos  data_les_DA-
LSS.xlsx  que se encuentra disponible en la carpeta de materiales del curso.
Se deberá seleccionar las 3 columnas de datos, tal y como se muestra en la gura 3.1 (a). Mediante las
teclas <ctrl>+<c> se procede a copiar los datos al portapapeles de Windows y luego se debe ejecutar
el código mostrado en la parte (b) de la gura y que también está disponible en la carpeta del material
del curso.
Con esas breves líneas de código, es posible hacer el análisis de Pareto para determinar cual debería
de ser la prioridad para resolver el problema de reclamos. Los resultados se muestran en la gura 3.2 y ahí
puede observarse que existe una diferencia en el ordenamiento de las tipologías de reclamos que depende
si se hace en función de la frecuencia con que ocurren los reclamos o si es en función del tiempo total que
requiere procesar dichos reclamos. Sin embargo, puede verse que existe una categoría que aparece entre
las primeras 3 en ambos casos, se trata del reclamo tipicado como Billing o sea, asuntos relacionados
con la facturación. Esto puede llevar a la conclusión que ese reclamo tiene un impacto signicativo en
ambos aspectos, frecuencia y tiempo, por lo que este tipo de reclamos puede ser el candidato ideal para
originar un proyecto de LSS que busque la reducción de la ocurrencia de dicho problema.
El ejemplo anterior muestra que el análisis de Pareto no debe limitarse a utilizar un solo criterio y
que hacerlo desde distintas perspectivas proporciona información más precisa que lleva a una toma de
decisiones más acertada en lo que respecta a los problemas que deben resolverse.

Mapa Mental
La técnica de los mapas mentales es una de las herramientas cualitativas mas útiles y versátiles que
hay en el arsenal de las distintas metodologías de trabajo en equipo y que también puede utilizarse en
trabajo individual, cuando se desea explorar un tema a profundidad y desarrollar un esquema mental
CAPÍTULO 3. DEFINE (DEFINIR) 25

(a) Pareto de Frecuencias (b) Pareto de Tiempo

(c) Tablas con resultados

Figura 3.2: Resultados Análisis de Pareto


CAPÍTULO 3. DEFINE (DEFINIR) 26

Figura 3.3: Mapa Mental del Problema

jerárquico que ayude a entender las relaciones entre los distintos aspectos de dicho tema. En la etapa
de denición, es importante recopilar toda la información posible sobre el problema en estudio, para lo
cual, el mapa mental es quizá el instrumento más apropiado.
Los mapas mentales son muy ecaces dado que reejan la forma en que funciona el proceso de pensa-
miento en el cerebro humano, el cual genera ideas y conceptos en una forma que el doctor Tony Buzan ,
1
el creador de la técnica llamó pensamiento irradiante porque una idea o un concepto inmediatamente
genera una red de ideas asociadas, cada una de las cuales a su vez genera otra red de ideas y así sucesi-
vamente. Esto forma el mapa mental que sirve para plasmar en forma gráca, toda la información que
se tiene sobre el problema.
Como ya se mencionó en la primera parte, Xmind es un programa especialmente diseñado para cons-
truir este tipo de diagramas. No es el único software de mapas mentales que existe entre las aplicaciones
de software libre, pero se eligió este en particular debido a que su exibilidad y versatilidad permiten la
creación de otros tipos de diagramas utilizados en la metodología LSS, como se verá mas adelante.
Para crear un mapa mental como el que se muestra en la Figura 3.3 en Xmind se parte de un mapa
en blanco y en el nodo central se escribe el tema o tópico que se va a analizar. Para agregar nuevos
nodos o sea, para expandir la red, solo es necesario colocarse en el nodo que se desea expandir y utilizar
la tecla de Tabulador para ir agregando mas nodos.
El mapa debe tratar de abarcar toda la información con la que el equipo del proyecto cuenta respecto
al problema, lo cual contribuye a un mayor conocimiento del mismo y también para su delimitación. La
denición del problema debe tratar de restringir el alcance de la forma más especíca que sea posible
para focalizar el esfuerzo de resolución dentro del alcance denido. Los proyectos LSS no deben pretender
resolver un problema demasiado amplio. Los proyectos LSS usualmente tienen una duración que no debe
exceder unos cuantos meses, 3 o 4 a lo sumo, por lo que delimitar el alcance del problema es fundamental
para que se logren los resultados esperados dentro del plazo de tiempo antes mencionado. Si un proyecto
es demasiado ambicioso y se estima que su duración puede extenderse mas allá del plazo razonable, lo mas
recomendable es reducir o delimitar aún más el alcance y una vez que se hayan logrado los resultados para
ese alcance, el proyecto puede replicarse en diferentes áreas funcionales, regiones geográcas, unidades
operativas, etc. dando origen a nuevos proyectos, cada uno con su respectivo ciclo DMAIC.

Diagrama de Flujo o de Proceso


En la etapa de denición se puede hacer útil o necesario tener una idea general del proceso bajo
análisis para diferentes propósitos:
a) Para entender el proceso en general sin entrar aún en el detalle
b) Para delimitar el proyecto, estableciendo las fronteras o límites del proceso a mejorar

1 https://es.wikipedia.org/wiki/Tony_Buzan
CAPÍTULO 3. DEFINE (DEFINIR) 27

c) Para comunicar a otros stakeholders el proceso que se va a mejorar


d) Para dimensionar el alcance del proyecto y el esfuerzo requerido.
Para cumplir con este propósito, existen varias herramientas que pueden utilizarse. Una de ellas es el
Diagrama de Proceso, aunque por supuesto que no es la única, ya que aquí también entran otras como
puede ser el SIPOC
2 o el diagrama IDEF 3 según sea el tipo de proceso a analizar.
Como se detalló en la primera parte de estas notas, el software Bizagi es un modelador de procesos que
pertenece a una suite de software para BPM. Aunque el software completo no es gratuito, el modelador
sí puede ser descargado y utilizado sin ningún costo y para cualquier propósito. La enorme ventaja de
este modelador, aparte de ser gratuito, que lo hace muy superior a otras alternativas de modelación
y diagramación de procesos, es la sencillez y la rapidez con que se puede construir un diagrama que
representa un proceso. Lo que en otros programas de diagramación toma varios minutos hasta incluso
varias horas de construcción, puede hacerse en cuestión de segundos en esta herramienta.
La gura 3.4 muestra la forma de construir un diagrama utilizando esta aplicación. Para hacerlo
basta con arrastrar los elementos o artefactos desde la parte izquierda hacia el área de diagramación.
Una vez que se ha creado el contexto general del proceso y se han agregado los carriles que representan
a los actores involucrados, se procede a arrastrar el símbolo de inicio, o sea el círculo verde y a partir
de ahí, tan solo haciendo click en ese elemento, se puede seleccionar el siguiente elemento en el proceso
de una forma rápida y sencilla. Con esto se puede concluir el diagrama mostrado en la gura en unos
cuantos segundos.
Es importante resaltar, como ya se ha dicho, que en esta etapa de denición solamente se requiere
una visión de alto nivel del proceso, es por eso que se requiere una herramienta que permita hacerlo en
forma rápida y sencilla. Basado en el diagrama, se puede ver claramente para este ejemplo, las áreas que
intervienen en el proceso a mejorar, las actividades principales que ocurren en el proceso y la secuencia
de las mismas. En etapas posteriores del ciclo DMAIC es muy probable que sea necesario profundizar
en el proceso y recurrir a otro tipo de diagramas, como puede ser un Mapa de la Cadena de Valor
(Value Stream Map o VSM) para entender con mucho mayor detalle cada uno de los pasos del proceso,
identicar desperdicios, controles, indicadores de desempeño, etc. pero en esta etapa este nivel de detalle
es suciente.

2 https://es.wikipedia.org/wiki/SIPOC
3 https://es.wikipedia.org/wiki/IDEF
CAPÍTULO 3. DEFINE (DEFINIR) 28

(a) Selección del siguiente elemento del diagrama

(b) Diagrama de Proceso

Figura 3.4: Construcción de un Diagrama de Proceso en Bizagi


Capítulo 4

MEASURE (Medir)

Arbol de CTQ
Análisis de Capacidad de Procesos
Análisis de Sistemas de Medición (MSA)
Muestreo de Aceptación

29
Capítulo 5

ANALYZE (Analizar)
El principal objetivo de la etapa de Análisis es identicar las causas raíz que inciden en el (los)
efecto(s) del problema bajo análisis. La razón por la cual esta etapa es crucial para el éxito del proyecto,
es que aquí se debe garantizar que se han identicado correctamente las causas del problema previo a
proponer e implementar soluciones. Una de las principales razones por las que los procesos de mejora
continua y solución de problemas a nivel organizacional tienen malos resultados, es la falla en identicar
las verdaderas causas raíz de dichos problemas. Esto generalmente se traduce en un estéril ejercicio
de ensayo y error que termina consumiendo tiempo y recursos, atacando solamente los efectos del
problema, por lo que al nal el problema vuelve a resurgir una y otra vez. Esto usualmente genera falta
de credibilidad en los procesos de mejora continua por parte de la alta dirección de las organizaciones
y el abandono de dichos procesos. Es por eso que en la metodología LSS este paso es crítico para el
éxito del proyecto. En esta etapa se hace uso extenso de herramientas tanto de tipo cualitativo pero mas
intensivamente de tipo cuantitativo.
Dos de las técnicas cualitativas mas utilizadas para realizar un ejercicio de identicación de poten-
ciales causas raíz son:

Diagrama Causa/Efecto (Diagrama de Ishikawa)

Diagrama de Interrelaciones

Para desarrollar estas técnicas de una forma rápida, efectiva y visualmente estética, el uso de herra-
mientas informáticas resulta de suma utilidad. En este caso, Xmind, como se mencionó en la primera
parte de estas notas, es una excelente alternativa para realizar ambas técnicas, como se demuestra a
continuación.

Diagrama Causa/Efecto
El diagrama de Causa/Efecto, también llamado Diagrama de Ishikawa en honor a su creador y
diagrama de espina de pescado por su forma, es una de las herramientas más populares entre los
practicantes de las distintas losofías y metodologías de mejora continua y aseguramiento de calidad. Se
trata principalmente de una herramienta que debe ser el resultado de un ejercicio de solución participa-
tiva de problemas, donde un equipo, conformado por personas de diversos perles contribuyen con ideas
para identicar todas las posibles causas de un problema. Para asegurarse que el ejercicio no se limite
a identicar las causas superciales sin llegar a la raíz del problema, el equipo puede utilizar diversas
técnicas, entre las cuales una de las más populares es la de Los 5 porqué que básicamente consiste en
lo siguiente: ante cada respuesta a porqué ocurre el problema se debe volver a preguntar porqué,
al menos 5 veces, para asegurarse que se llega al fondo del asunto.
Adicional a los mapas mentales, Xmind permite, utilizando el botón derecho del mouse sobre el
nodo central del diagrama, cambiar la estructura para producir un diagrama de causa/efecto o de
espina de pescado, como se muestra en la Fig. 5.1. Luego, el diagrama puede construirse utilizando el
tabulador, lo cual va agregando ramales a la espina del pescado. Usualmente se acostumbra a que las

30
CAPÍTULO 5. ANALYZE (ANALIZAR) 31

Figura 5.1: Cómo hacer un diagrama causa/efecto en Xmind

Figura 5.2: Diagrama Causa/Efecto Variabilidad en el % de Cafeína residual

categorías principales del diagrama son las que se conocen como las 5 M's, que se reeren a las iniciales
de Materiales, Máquinas, Métodos, Mano de Obra y Medio Ambiente. Estas categorías tienen su origen
en los primeros usos que se le dieron al diagrama, que estaban directamente relacionados con el ámbito
industrial, por lo que se consideraron que esas tipologías representaban las principales causas de los
problemas de manufactura. En el análisis de procesos que no sean de manufacutra, se puede utilizar
otro tipo de categorías principales e ir explorandolas en mayor detalle.
Utilizando Xmind, se puede ir expandiendo cada categoría simplemente colocándose en cada nodo
y utilizando el tabulador para agregar ramales. Este procedimiento puede repetirse las veces que sea
necesario para ir descendiendo en el nivel de detalle utilizando la técnica de los 5 porqué mencionada
anteriormente.
La construcción del diagrama de causa/efecto es mas importante por el proceso en sí mismo que por
el resultado nal. El ejercicio de lograr que el equipo interactúe para generar todas las posibles causas
que inciden en el problema, es la parte más valiosa de la técnica. Una vez se tiene construído el diagrama,
el siguiente paso en el proceso consiste en empezar a relacionar las posibles causas con el efecto mediante
el análisis cuantitativo de datos, para determinar cual(es) de las causas tiene(n) el mayor impacto en el
efecto del problema, algo de lo cual se mostrará mas adelante por medio de ejemplos.
CAPÍTULO 5. ANALYZE (ANALIZAR) 32

Diagrama de Interrelaciones
El diagrama de Interrelaciones es otra de las diversas herramientas denominadas suaves que suele
utilizarse en la etapa de Análisis para poder establecer las posibles causas que ocasionan el problema o
efecto que se encuentra en proceso de solución. Este diagrama es, al igual que el de Ishikawa, el resultado
de un ejercicio de trabajo en equipo en el cual los integrantes del mismo aportan su conocimiento y
experiencia sobre el problema en cuestión y por medio de alguna técnica de generación de ideas, producen
una lista, lo mas exhaustiva posible, que identique todas las posibles causas que ocasionan el efecto
o dolor. Cuando este ejercicio se realiza en un entorno participativo, suele realizarse utilizando una
pizarra o una pared donde se coloca en el centro el problema o efecto a analizar y cada participante
escribe, en pequeños trozos de papel del tipo que contiene adhesivo, todas las ideas sobre las posibles
causas que originan el problema. Luego cada integrante del equipo va colocando sus aportes alrededor de
la idea central hasta que todas se encuentren visibles para todos. El paso nal en el proceso es empezar
a utilizar echas, por medio de un marcador o algo similar, para conectar todas las ideas plasmadas, no
solamente con la idea central, sino también entre ellas mismas, utilizando la dirección de la echa para
indicar una relación causal entre dichas ideas. Al terminar el ejercicio, se procede a contar para cada
nodo o idea, la cantidad de echas saliendo y la cantidad de echas entrando, lo cual se anota en cada
nodo. Una vez hecho esto, es evidente poder identicar las posibles causas raíz, siendo éstas aquellas
que presenten la mayor cantidad de echas saliendo de ellas y también se identican los efectos ya que
son aquellos que presentan la mayor cantidad de echas entrando.
El proceso descrito anteriormente puede perfectamente replicarse utilizando una herramienta como
Xmind de una forma práctica y simple. La versatilidad de esta herramienta, como ya se ha mencionado,
permite crear diversos tipos de diagrama. La creación de un diagrama de interrelaciones en Xmind se
inicia, al igual que se inicia un mapa mental o un diagrama de causa/efecto, es decir, colocando en el
centro el concepto, idea, problema o efecto que se desea explorar. En lugar de los trozos de papel, la
aplicación permite, simplemente haciendo click en diferentes partes del diagrama, ir agregando elementos
o ideas otantes alrededor del tema central, tal y como se muestra en la gura 5.3 (a)
La parte (b) de la gura muestra el resultado del proceso de interconectar las ideas y los conceptos
en forma de relaciones causa/efecto. Este ejercicio es muy interesante porque permite relacionar una
causa con otra causa, lo que es una ventaja respecto al diagrama de Ishikawa que solo las identica y
agrupa en categorías. Al terminar de interconectar los elementos del diagrama, surgen de forma evidente
aquellos nodos que presentan el mayor número de echas saliendo de ellos, como se ilustra en la gura,
especícamente en los nodos que muestran un color diferente. Estas causas constituyen las principales
sospechosas de representar la raíz del problema, una con 6 echas salientes y la otra con 4. Mediante el
posterior análisis más profundo de este par de causas principales, se puede llegar a la solución de uno o
varios de los efectos y causas secundarias que se muestran en el diagrama.
El ejemplo anterior es claramente un ejercicio simplicado para efectos ilustrativos en estas notas,
sin embargo, muestra la utilidad y simplicidad de esta herramienta y de su aplicación mediante este
programa computacional para analizar un problema y alcanzar conclusiones importantes dentro del
equipo de proyecto.

Análisis Exploratorio de Datos


Una vez se han listado las potenciales causas raíz del problema, se debe proceder a identicar cual o
cuales de esas causas tienen mayor incidencia en el efecto. Para este propósito, se hace necesario recurrir
a herramientas duras o sea, metdología cuantitativa cuya base es el análisis estadístico. El análisis
exploratorio de datos es una de las etapas más importantes de un proyecto de mejora bajo el modelo
DMAIC. En la práctica del análisis de datos dentro del contexto de la mejora continua, usualmente
se generan muchos datos durante la operación de los procesos, ya sea productivos o transaccionales,
pero estos datos no necesariamente fueron recolectados con un n especíco.El Análisis Exploratorio
de Datos permite, como su nombre sugiere, iniciar con una exploración preliminar de los datos para
generar, a partir de esto, una serie de preguntas que después pueden ser respondidas a profundidad.
También permite, de una forma simple y rápida, identicar comportamientos o relaciones entre variables
que pueden ayudar a explicar fenómenos o problemas que se dan dentro del proceso. Para proceder con
CAPÍTULO 5. ANALYZE (ANALIZAR) 33

(a) Agregar las ideas otantes

(b) Conectar las ideas

Figura 5.3: Construcción de un Diagrama de Interrelaciones en Xmind


CAPÍTULO 5. ANALYZE (ANALIZAR) 34

Figura 5.4: Tipos de Datos

Figura 5.5: Análisis Exploratorio de Datos

un análisis exploratorio de datos, lo mas importante es conocer los tipos de datos que se tienen. La
gura 5.4 muestra esquematicamente los diferentes tipos de variables que existen y algunos ejemplos de
cada una. Según sea el tipo de variable(s) a analizar, así será el tipo de análisis que se debe realizar
sobre ella(s). Uno de los errores comunes es usar una herramienta analítica para un tipo de variable que
no se ajusta a dicha técnica. Un ejemplo claro de esto puede ser calcular una media aritmética sobre
una variable cuantitativa discreta; aunque es matemáticamente factible, el resultado no tiene ninguna
interpretación práctica, por lo que es totalmente inutil.
Uno de los pilares fundamentales del AED es la visualización de los datos utilizando una amplia
gama de representaciones grácas. La frase una imagen dice más que mil palabras adquiere un sentido
cuasi literal en este caso, ya que visualizando los datos con una o dos grácas se puede obtener un mayor
entendimiento del problema que con una descripción detallada y muchos números.
Para demostrar la aplicación del análisis exploratorio de datos en forma práctica, se hará uso de
varios sets de datos de ejemplo, los cuales se encuentran contenidos el el archivo de Excel denominado
data_les_DA-LSS.xlsx  que se encuentra disponible en la carpeta de materiales del curso.
CAPÍTULO 5. ANALYZE (ANALIZAR) 35

(a) Datos en Excel (b) Script en RStudio

Figura 5.6: Carga de datos de cafeína a RStudio

Análisis Exploratorio Univariado


Variable Cuantitativa Continua
En la pestaña denominada  Caeine-batches  del archivo de Excel, se encuentran los datos corres-
pondientes a 40 lotes de café al cual le fue extraída la cafeína y a los cuales posteriormente se le realiza
un análisis para determinar el porcentaje de cafeína residual.
El script de R que será utilizado también se encuentra en la carpeta compartida, por lo que para
poder desarrollar el ejercicio que se describe a continuación, el lector solamente necesita cargar dicho
script en RStudio y abrir el archivo de datos en Excel.
Para leer los datos, se requiere seleccionarlos en la hoja de Excel (incluyendo el nombre de la columna)
y ejecutar la línea de código que se muestra en la Figura 5.6 (b) para que se transeran los datos del
portapapeles (clipboard) a un objeto de R. A partir de ahí, ya se puede proceder con la ejecución del
script en R línea por línea para ir obteniendo los resultados, los cuales se discuten a continuación,
basándose en las grácas y los resultados cuantitativos obtenidos directamente de R.
Este ejemplo se trata de un análisis exploratorio para una variable cuantitativa continua. El AED
se basa principalmente en la aplicación de técnicas de estadística descriptiva, en forma analítica pero
especialmente en forma gráca para identicar aspectos de los datos que pueden sugerir un análisis
mas profundo y especíco. La exploración de una variable continua abarca aspectos como su tendencia
central, dispersión, forma de la distribución, presencia de outliers
1 o clusters2 .
La gura 5.7 muestra algunas de las grácas que pueden realizarse en el caso de un AED univariado.
En el análisis gráco de variables continuas, las dos herramientas visuales más poderosas y que se
combinan para dar una idea muy clara de los datos son: el histograma y el gráco de cajas, también
llamado de cajas y bigotes. Primero, el histograma muestra una forma de los datos que sugiere cierta
simetría y la forma familiar de una distribución gaussiana, aunque esto es algo que deberá validarse mas
adelante por medio de una prueba especíca. La línea verde representa la media de los datos, mientras
que la línea azul representa la mediana. En una distribución normal, ambas medidas de tendencia central
deben coincidir en el mismo valor. Mientras más se aleje una de la otra, es una indicación de la presencia
de un sesgo en los datos. En este caso, la media está ligeramente por debajo de la mediana, lo que puede
signicar un ligero sesgo hacia la izquierda, es decir, un sesgo negativo, aunque la diferencia parece no ser
muy signicativa. El rango del histograma muestra que el porcentaje de cafeína en los datos analizados
se encuentra entre 0.04 y 0.12.
El gráco de cajas también muestra una ligera asimetría ya que la pata inferior es un poco mas

1 datos atípicos
2 agrupación de datos
CAPÍTULO 5. ANALYZE (ANALIZAR) 36

(a) Histograma (b) Gráco de cajas (c) Diagrama de densidad

Figura 5.7: Análisis gráco del contenido de cafeína en los lotes

larga que la superior, pero nuevamente, esta diferencia no es muy marcada. La caja representa el Rango
Intercuartil, es decir, la diferencia entre el cuartil 3 y el cuartil 1 y contiene el 50 % de los datos. La
línea negra en medio de la caja representa la mediana de los datos y en una distribución normal y
perfectamente simétrica, ésta se encontraría justo en la mitad de la caja, sin embargo en este caso
nuevamente puede observarse un muy leve sesgo ya que la parte inferior de la caja es ligeramente mayor
que la parte superior, lo que indica un sesgo negativo, es decir, hacia los valores bajos de la distribución.
Una de las principales ventajas del gráco de cajas es que permite identicar la presencia de datos
atípicos o outliers los cuales en este caso no existen. De existir datos atípicos, éstos se mostrarían
como puntos por arriba o por debajo de las patas del diagrama.
Finalmente el diagrama de densidad es una aproximación a la distribución de los datos utilizando una
curva suavizada que se basa en el histograma. En la Figura 5.7 (c) se puede ver que la distribución de los
datos se asemeja bastante a una distribución normal, aunque la media, representada por la línea verde,
se encuentra ligeramente desfasada de la parte mas alta de la curva que en este caso representaría la
moda, la cual también puede verse en el histograma representada en la barra que tiene mayor altura. Las
líneas negras representan el intervalo µ ± 3σ , es decir, el intervalo que está a 3 desviaciones estándar de
la media y que en teoría debe contener aproximadamente el 99.7 % de los datos, de acuerdo al Teorema
de Chebyshev, que en este caso se cumple bastante bien, ya que la totalidad de los 40 datos entran
dentro de este intervalo.
El siguiente gráco, en la gura 5.8, muestra el resultado de un análisis que ya no pertenece al
ámbito de la estadística descriptiva sino que ya involucra aspectos de la estadística inferencial. Se trata
de un análisis para determinar el intervalo de conanza para la media. Vale la pena recordar que el
intervalo de conanza para la media se basa en el Teorema del Límite Central, que se considera el
teorema fundamental de la estadística y que, en forma simplicada, indica que si se toman muestras
de un tamaño sucientemente grande (usualmente, de más de 5 elementos) y se obtiene la media de
las muestras, la distribución de las medias muestrales tendrá una distribución normal, independiente
de la forma de la distribución de la población y la media de la distribución muestral coincidirá con la

media de la población y la desviación estándar de la distribución muestral será igual a σ/ n donde n
representa el tamaño de la muestra y σ representa la desviación estándar de la población.
Esto es sumamente útil en este caso, ya que, en una forma simplicada, se puede indicar que la media
de todos los lotes o batches se encontrará, con un 95 % de conanza, en el intervalo que se muestra en
la gráca, es decir, entre 0.078 y 0.088. El script de R contiene el cálculo manual si el lector desea
corroborar el resultado.
La gura también muestra el resultado de un test de hipótesis de normalidad de Shapiro-Wilks. En
este caso, la hipótesis nula que se tiene es que los datos provienen de una distribución normal, lo cual se
contrasta con la hipótesis alternativa que los datos no provienen de una distribución normal. El resultado
de la prueba muestra que el p-value es de 0.538, lo cual es mucho mayor al nivel de signicancia que se
utiliza mayoritariamente en estas pruebas, que es de 0.05, por lo que se concluye que no existe evidencia
CAPÍTULO 5. ANALYZE (ANALIZAR) 37

Figura 5.8: Análisis del Intervalo de Conanza del 95 % para la media

suciente en los datos para rechazar la hipótesis de normalidad. Se debe recordar que el supuesto de
normalidad es un requisito fundamental en muchas pruebas estadísticas que se realizan en temas de
calidad, por lo que esto conrma que para efectos prácticos, se puede asumir que los datos son normales
y se pueden aplicar los test que asumen normalidad de los datos.
En síntesis, en este ejemplo se exploró en forma analítica y gráca la variable que representa el
porcentaje de cafeína residual en los lotes de café. Se obtuvieron sus medidas de tendencia central y
dispersión. Se determinó que se puede asumir que los datos se distribuyen de acuerdo a una curva
normal, lo cual es, en sí misma, una conclusión muy importante, ya que es lo que se espera de un CTQ
en casi cualquier proceso industrial. Cualquier desviación de la normalidad en estos procesos debe ser
motivo de preocupación e investigación para identicar las causas de tal desviación. También se pudo
establecer un intervalo de conanza del 95 % para la media del contenido de cafeína en los lotes. Estos
resultados deben servir para contrastarlos con los valores esperados del proceso y con las especicaciones
que los clientes han establecido.

Variable Cualitativa (Factor)


Como se mostró en la gura 5.4 las variables cualitativas pueden ser de 2 tipos: categóricas/nominales
y ordinales. En ambos casos, la exploración univariada de una variable de este tipo está limitada a la
distribución de los valores que toma, sin embargo, estas variables son de importancia crítica en el análisis
bivariado, ya que en este caso las variables cualitativas se convierten en factores que pueden inuenciar
una variable de resultado y que puede llegar a relacionarse con la causa raíz de un problema.
Para ilustrar el análisis univariado de una variable cualitativa, se utilizarán los datos de la pestaña
Departments del archivo de Excel. Este set de datos contiene información sobre 3 departamentos,
A, B y C, que procesan casos de ciertos tipos. El set contiene 2 variables: Departamento y Tiempo
de procesamiento del caso, medido en días. Aunque se cargarán ambas variables a R, el análisis por el
momento se limitará a la variable Departamento.
La gura 5.9 muestra el resultado del análisis de esta variable, el cual se explica a continuación. En
primer lugar, se procede a elaborar una tabla de frecuencias para tabular los valores que la variable
toma. Esto permite obtener los valores que se muestran en la gura, donde se ve que, de la muestra que
es de 328 casos, el departamento A tiene 109 casos atendidos, el departamento B tiene 90 y el C tiene
129. Esto también puede se representado en forma de fracciones o proporciones, como puede observarse,
por lo que el departamento A representa un 33.23 %, el B un 27.43 % y el C un 39.32 %. Los datos
también pueden representarse grácamente por medio de un diagrama de sectores, mas conocido como
gráco de pie, que también se muestra en la gura. Respecto a este tipo de gráco vale la pena indicar
CAPÍTULO 5. ANALYZE (ANALIZAR) 38

Figura 5.9: Análisis Variable Cualitativa en R

que se trata de uno de los grácos más abusados e incorrectamente utilizados, ya que se recurre a él
para representar datos de todo tipo. Entre la comunidad cientíca y analítica, el gráco de sectores es
considerado uno de los menos recomendables, dadas sus limitaciones para distinguir diferencias entre
los diferentes valores de la variable. Esto se debe a que el ojo humano es muy malo para evaluar áreas.
El gráco de sectores debe limitarse a la representación de variables cualitativas categóricas que tengan
pocas categorías, dígase cerca de 6 o menos y cuando el órden de dichas categorías no es importante.
En otros casos, se recomienda mejor el uso de un gráco de barras que permite identicar mejor las
diferencias, muestra un órden implicito y puede representar más categorías de una mejor forma.
Aunque como ya se dijo, el análisis de una variable cualitativa es mas limitado que en el caso de una
variable cuantitativa, existen varios análisis que pueden realizarse. Uno de los más comunes y útiles en
esta etapa, puede ser el análisis de la distribución de proporciones, lo que se conoce como la prueba de
Chi Cuadrado de Bondad de Ajuste. Para ilustrar el uso de esta prueba en este caso, supóngase que
la gerencia a cargo de estos 3 departamentos tiene la hipótesis que los casos se distribuyen igualmente
entre tales departamentos, es decir, que en promedio, cada departamento atiende la misma proporcion
de casos respecto al total. Para esto se plantea la hipótesis nula que las proporciones de casos atendidos
para los 3 departamentos son iguales, o sea, cada una atiende un tercio del total de casos. La hipótesis
alternativa en este caso es que las proporciones no son iguales. La gura 5.9 muestra el resultado de
esta prueba de hipótesis de Chi Cuadrado. En las secciones que vienen a continuación se explicará
un poco más en detalle sobre las pruebas de hipótesis, pero por el momento, solo nos enfocaremos
en la interpretación del valor identicado como p-value. Lo más usual para las pruebas estadísticas es
establecer un nivel de signicancia de 0.05, aunque algunas veces puede ser mayor o menor según sea el
tipo de error que se desea minimizar, pero como ya se dijo, la teoría de esto se deja a cargo del lector. Si
el p-value es menor al nivel de signicancia establecido, se puede rechazar la hipótesis nula en favor de
la hipótesis alternativa, es decir, se acepta que los datos proporcionan evidencia que las proporciones no
son iguales, por lo que se concluye que la atención de los casos no es uniforme entre los 3 departamentos.
Esta prueba también puede hacerse con otras proporciones, por ejemplo, si se partiera de la hipótesis
nula que un departamento, dígase el A, atiende el doble que los otros 2, las proporciones contra las que
CAPÍTULO 5. ANALYZE (ANALIZAR) 39

Figura 5.10: Histograma y Boxplot % Cafeína residual

se contrastarían los datos serían p=(1/2, 1/4,1/4) y el procedimiento sería exáctamente el mismo así
como la interpretación del resultado y el p-value.

Análisis Exploratorio Bivariado


Variable Cuantitativa vs. Variable Cualitativa (Factor)
En la pestaña denominada Caeine-3 del archivo de Excel, se encuentra otro set de datos similar
al explorado en la sección anterior, con la diferencia que en este caso se consigna además del contenido
de cafeína y el número de batch, el número de extractor en el cual fue procesado cada uno de los lotes.
Como primer paso, se procede a cargar los datos de Excel a R al igual que se hizo en la sección anterior,
copiando las dos primeras columnas, ya que el número de batch no se utilizará en este análisis.
En la Figura 5.10 se observa el histograma y el gráco de cajas de la variable Caeine que contiene
el % de cafeína residual de todos los lotes. Al observar el histograma es evidente que la distribución de los
datos no se asemeja a una distribución normal o simétrica. El histograma presenta dos picos o modas y
un valle en medio de ambos. A este comportamiento se le denomina multimodalidad y es un síntoma
de un problema. También el diagrama de cajas muestra una forma diferente a la que se pudo observar
en la sección anterior. La altura de la caja es signicativamente mayor comparada con la altura total
del gráco y respecto a las patas o bigotes. Hay que recordar que la caja representa el rango intercuartil
y por ende, el 50 % de los datos, lo cual indica que hay mucha dispersión entre el cuartil 1 y el cuartil
3, algo que no corresponde a una distribución normal.
La presencia de multimodalidad en un histograma es usualmente atribuida a el hecho que los datos
provienen de poblaciones con características diferentes, es decir, con medias diferentes, lo que signica
que se han mezclado datos. La forma de proceder ante tal situación es tratar de identicar el (los)
factor(es) que inciden en las diferencias. Es por eso que durante la etapa de medición es de suma
importancia recopilar la mayor cantidad de información posible, siempre que sea práctico y económico
obtener dichos datos. Mientras mas datos se hayan obtenido en la etapa de Measure, más probable es
que se pueda identicar correctamente el factor que es la fuente de la variabilidad.
En este caso particular, se cuenta con el dato del número de extractor donde se realizó el proceso
para cada uno de los datos de la muestra, por lo que es el candidato natural a analizar. Para analizar
grácamente si existe diferencia entre los lotes obtenidos de los distintos extractores, se puede recurrir
a un gráco de cajas segmentado en función al número de extractor. El código para hacer esto se puede
ver en el script de R que se ha estado utilizando y el resultado se muestra en la Figura 5.11 .
Es evidente que existe una diferencia en el porcentaje de cafeína residual entre los lotes obtenidos de
distintos extractores. Esto puede ser un indicio que el extractor es un factor que afecta la variabilidad
de este CTQ. También hay que hacer notar la presencia de un dato atípico o outlier en los datos del
extractor # 1, el cual se muestra como un punto fuera de las patas del diagrama. La existencia de
CAPÍTULO 5. ANALYZE (ANALIZAR) 40

Figura 5.11: Boxplot % Cafeína por Extractor

Figura 5.12: Pruebas de Hipótesis

datos atípicos debe siempre ser investigada para identicar la causa de tal anomalía. Estos datos pueden
deberse a muchas causas, siendo la principal sospecha, un error en la medición o toma del dato, pero
también puede ser ocasionada por otros factores externos que afectan el proceso y que es necesario
corregir.
Esta primera exploración es el primer paso previo a una conrmación de las diferencias utilizando
metodología estadística inferencial como se verá en las siguientes secciones.

Pruebas de Hipótesis
Las pruebas de hipótesis son parte de la metodología de estadística inferencial que permiten deter-
minar, basado en una muestra, si existen diferencias signicativas entre la media de una población y
un valor determinado o si dos muestras provienen de poblaciones con diferentes medias. Como se ha
indicado anteriormente, toda la teoría que sustenta la aplicación de estas pruebas puede ser consultada
en innumerables textos de estadística por lo que no será cubierta en detalle en estas notas.
Se ilustrará primero la prueba de hipótesis para la media de una muestra, para lo cual se utilizará
nuevamente el ejemplo del contenido de cafeína residual en los lotes de café que se usó en la sección de
análisis exploratrio de una variable continua. Como ya se ilustró la forma de cargar los datos, se procede
asumiendo que los datos ya están disponibles en R.
Suponiendo que se espera que el contenido de cafeína residual en los lotes tenga un valor promedio
de 0.08 %, basado en los datos de los 40 lotes que contiene la muestra, la pregunta es ¾estos datos
proporcionan suciente evidencia para armar que la media de este proceso es diferente al valor supuesto?
La gura 5.13 muestra los resultados del análisis realizado en R/RStudio. Se realizaron 2 pruebas
para ilustrar los 2 resultads posibles de una prueba de este tipo. En el primero, la hipótesis nula es que
CAPÍTULO 5. ANALYZE (ANALIZAR) 41

Figura 5.13: Prueba de Hipótesis para la media de una muestra en R

la media de la población de donde se obtuvo la muestra es igual a 0.08 y en el segundo, la hipótesis nula
es que la media es igual a 0.1.
Para realizar este análisis solo se requiere una línea de código que contiene la función t.test que se
reere a una prueba t de student. La primera prueba contrasta los datos contra la hipótesis nula
que la media es 0.08, como se indica en el parámetro de la función mu = 0.08. En los resultados de
esta primera prueba se observan varios valores de interés para su análisis e interpretación. El primero
y el más importante es el p-value, que en este caso tiene un valor de 0.2271. Este es el valor que debe
compararse contra el valor que se haya denido como nivel de signicancia (α) de la prueba. Supóngase
que se denió un α = 0,05 que es lo mas común en este tipo de pruebas, entonces, dado que el p-value es
mayor a dicho nivel de signicancia, se puede concluír que los datos no proporcionan evidencia suciente
para rechazar la hipótesis nula, por lo que se acepta que la media de la población de donde se obtuvo la
muestra es de 0.08. El otro resultado importante es el intervalo de conanza del 95 %, que en este caso
es de [0.0779, 0.0884], el cual incluye el valor de la hipótesis nula, por lo que esto ratica la conclusión.
En el caso de la segunda prueba, donde se contrastan los datos contra la hipótesis nula µ = 0,1
puede observarse que el p-value es un valor muy pequeño, que para efectos prácticos puede considerarse
casi 0. Dado que dicho valor es mucho menor al nivel de signicancia de 0.05, se concluye que los datos
sí proporcionan evidencia suciente para rechazar la hipótesis nula en favor de la hipótesis alternativa,
así que si la expectativa fuera que el proceso produce café con un contenido de cafeína residual de
0.1 %, dicha armación no podría ser sustentada en base a los datos. Solo hay que recordar que esta
prueba parte del supuesto de la normalidad de los datos, lo cual ya había sido conrmado en el análisis
exploratorio de esta variable.
La prueba anterior es solo para una muestra de una variable, pero ¾que sucede cuando se desea ana-
lizar una variable cuantitativa segmentada en función a un factor (variable cualitativa) para determinar
si el factor incide en dicha variable cuantitativa? Para esto se requiere utilizar un contraste o prueba de
hipótesis de 2 muestras. Aquí pueden presentarse dos situaciones:
a) Que las muestras sean independientes, es decir, que los datos de una muestra no tienen relación
con los datos de otra muestra, aunque en teoría puedan provenir de la misma población.
b) Que las muestras son pareadas, es decir, se trata de las mismas unidades de estudio pero evaluadas
en distintos momentos del tiempo, por ejemplo, antes y después de aplicar un tratamiento.
Veamos un ejemplo del primer caso. La pestaña  THT  del archivo de Excel que se ha venido
utilizando, contiene los datos del tiempo que toma procesar llamadas en un Call Center, en segundos,
para dos tipos de agentes, unos que recibieron cierto entrenamiento y otros que no. Es evidente que
ambos grupos están conformados por personas diferentes por lo que se puede asumir con certeza que las
muestras son independientes entre sí.
CAPÍTULO 5. ANALYZE (ANALIZAR) 42

Figura 5.14: Prueba de Hipótesis para 2 muestras independientes

La gura 5.14 muestra el análisis realizado en R/RStudio. Como ya se ha explicado anteriormente,


primero se copian los datos desde Excel y se trasladan a R ejecutando la función read.table. Luego
se construye un gráco de cajas de la variable THT (cuantitativa) segmentado respecto a la variable
Training (Cualitativa). El gráco de cajas puede observarse en la gura y es mas que evidente que
tanto la tendencia central o localización como la dispersión en el tiempo de atención son diferentes entre
los agentes que recibieron el entrenamiento y los que no. Al ejecutar la función t.test en este caso,
basado en la diferencia de la dispersión de los datos, hay que asegurarse de indicar que las varianzas son
diferentes con el parámetro var.equal=F.
Hay que recordar que cuando se contrastan las medias de dos muestras, se parte de la hipótesis nula
que las medias son iguales, en otras palabras, que la diferencia de medias es igual a 0, µ1-µ2 = 0 por lo
que si el p-value obtenido de la prueba es menor al nivel de signicancia elegido, se rechaza la hipótesis
nula en favor de la hipótesis alternativa, como sucede en este caso, por lo que puede concluirse que las
medias no son iguales y que por consiguiente, el factor Entrenamiento sí incide en la variable THT.
Otra forma de validar esto es observando el intervalo del 95 % de conanza para la diferencia de medias,
que se muestra en los resultados y que es de [88.929, 257.698]. Dado que el intervalo no incluye el valor
0, se puede conrmar que la diferencia es, en efecto, diferente de 0.
Ahora bien, como ya se indicó, el requisito para la validez de la prueba t de student es que los datos
tengan una distribución normal, algo que no fue validado en los datos anteriores y que observando el
gráco de cajas que corresponde a quienes no recibieron entrenamiento, pareciera que no se cumple.
Si los datos no son normales, debe utilizarse una prueba que pertenece a la categoría de pruebas
no paramétricas, es decir, que no suponen una distribución especíca de los datos. La prueba no
paramétrica mas utilizada para comparar dos muestras independientes y determinar si provienen de la
misma población se conoce como el test Kruskal-Wallis
3.
La gura 5.15 muestra en primer lugar, un análisis del intervalo de conanza de la media de los
datos de THT para quienes no recibieron entrenamiento. El histograma que se muestra del lado derecho
evidencia que los datos presentan un fuerte sesgo hacia la derecha, es decir, un sesgo positivo, lo que
desvía los datos de una distribución simétrica normal. Ese sesgo o asimetría también se pudo observar
en el diagrama de cajas de la gura 5.14. En el panel de resultados o consola se puede ver claramente
una advertencia en letras rojas que indica que los datos de la muestra no son normales. Esto ya debe ser
suciente para descartar los resultados obtenidos de la prueba t de student y buscar una prueba alterna,
pero si no fuera suciente, la prueba de Shapiro-Wilks cuyo resultado se muestra en el panel gráco
arroja un p-value de 0.001 que es signicativamente menor al 0.05 por lo que se rechaza la hipótesis de
normalidad.
3 https://es.wikipedia.org/wiki/Prueba_de_Kruskal-Wallis
CAPÍTULO 5. ANALYZE (ANALIZAR) 43

Figura 5.15: Test Kruskal-Wallis

Dado lo anterior, se necesita la prueba no paramétrica para determinar si las muestras provienen de
la misma población (aquí no se comparan medias, puesto que es una prueba no paramétrica, es decir,
sin parámetros y la media es un parámetro de una distribución). Al ejecutar la función para la prueba
de Kruskal-Wallis, cuya forma es kruskal.test(), se obtiene un resultado del p-value = 0.001463 lo cual
se interpreta de la misma forma que otras pruebas de hipótesis, es decir que si el p-value es menor al
nivel de signicancia, se rechaza la hipótesis nula en favor de la hipótesis alternativa, que en este caso es
que las muestra no provienen de la misma población. Esto coincide con la conclusión de la prueba t
pero con la certeza que los resultados son consistentes y conables porque no se violó ningún supuesto
de la prueba.
El ejemplo anterior fue elegido con la intención maniesta de ilustrar la forma de manejar el caso
de no normalidad de los datos, que suele surgir en diversos contextos, aunque, como su nombre lo
sugiere, la normalidad es lo mas común a encontrar en aplicaciones dentro de proyectos LSS.
El último caso a presentar es el de la prueba de hipótesis para dos muestras pareadas. Esta prueba
es comunmente utilizada cuando se trata de comparar la situación de las mismas unidades de estudio
(personas, productos, departamentos, etc.) en dos momentos distintos del tiempo, usualmente antes
y después de la aplicación de cierto cambio o mejora para evaluar si dicho cambio tuvo un efecto
estadísticamente signicativo sobre la variable que se esté evaluando. Esto implica que para cada unidad
de estudio deben existir dos mediciones, una antes del tratamiento y otra posterior al mismo, lo que
signica que ambas muestras tienen que tener el mismo tamaño, algo que no era necesario en el caso de
la prueba para muestras independientes.
La gura 5.16 muestra el ejemplo de prueba de hipótesis entre dos series de datos que corresponden
a las mismas unidades de estudio y que fueron sometidas a un proceso para mejorar su desempeño. En
este caso, se ilustra la forma en que pueden ingresarse datos manualmente a R, dado que se trata de
muestras pequeñas; para muestras mas grandes el método de lectura directa de un archivo o copiar/pegar
desde Excel es obviamente más práctico. Primero, se construye un gráco de cajas pareado, para poder
explorar visualmente ambas muestras. El diagrama muestra que existe una ligera diferencia entre ambos
sets de datos, aunque quizá no lo sucientemente grande para armar con certeza que tal diferencia es
estadísticamente signicativa, por lo que debe procederse a realizar la prueba de hipótesis.
La prueba t arroja un p-value de 0.0001167 que es bastante menor que el nivel de signicancia de
0.05 por lo que se concluye que ambas muestras son diferentes y por consiguiente, el proceso de mejora
fue efectivo.
CAPÍTULO 5. ANALYZE (ANALIZAR) 44

Figura 5.16: Prueba de Hipótesis para muestras pareadas

Análisis de Varianza
Cuando se analiza el efecto que tiene sobre una variable cuantitativa, un factor que puede tener más
de 2 posibles niveles o valores, o se necesita comparar 3 o más muestras, las pruebas de hipótesis ya no
son sucientes por diversas razones cuya explicación está fuera de alcance de estas notas. En tal caso, se
debe recurrir a otra herramienta analítica de inferencia estadística, en este caso, el Análisis de Varianza
o ANOVA como suele denominarse comunmente.
Junto con las pruebas de hipótesis, el ANOVA es una técnica muy utilizada en los proyectos LSS,
principalmente en dos de las etapas del ciclo DMAIC: análisis y mejora. En la etapa de análisis sirve
para identicar diferencias entre grupos que pueden ser atribuídas a la presencia de una causa asignable
que ocasiona variabilidad de los procesos. En la etapa de mejora sirve para evaluar el resultado de la
aplicación de una solución y comparar si dicha solución tuvo un impacto signicativo en un CTQ.
Nuevamente se utilizará un ejemplo para ilustrar el uso de esta técnica, para lo cual se tomarán los
datos de la pestaña  Departments  del archivo de Excel. Estos datos corresponden al tiempo que tardan
3 departamentos diferentes, identicados como A,B y C, en procesar un mismo tipo de casos. Lo que se
desea determinar es si existen diferencias signicativas entre los tiempos para los departamentos.
Como se ha hecho en ejemplos anteriores, la gura 5.17 muestra el proceso de análisis en R/RStudio.
Primero se cargan los datos desde Excel como ya es habitual. Luego se procede a realizar una gráca de
cajas para hacer una comparación visual de los datos. Puede observarse que los datos presentan ciertas
diferencias en su localización (tendencia central) y en su dispersión. También es evidente la presencia
de outliers para cada uno de los departamentos. Como ya se dijo en una sección anterior, es importante
investigar el origen de estos datos atípicos ya que se debe decidir si dichos datos se dejan o se eliminan
para evitar afectar el resultado del análisis por algo que quizá no reeje la realidad.
La función aov() realiza el análisis de varianza de la variable Time (cuantitativa continua) en función
de la variable Department (cualitativa categórica o factor). El factor en este caso toma 3 valores (niveles)
diferentes (A, B y C). Si solo tuviera dos, el resultado del ANOVA sería equivalente a una prueba de
hipótesis de 2 muestras independientes.
El resultado que se muestra en el panel de la consola, muestra en la columna mas a la derecha un
valor de Pr(>F) de 0.000127. Esto es equivalente al p-value de las pruebas de hipótesis y el criterio de
análisis es exáctamente el mismo, es decir, si este valor es menor al nivel de signicancia de la prueba,
usualmente igual a 0.05, se rechaza la hipótesis nula que no existen diferencias entre los grupos y se
concluye que al menos uno de los grupos es diferentes de los demás.
El test de ANOVA solamente indica si existe diferencia en al menos uno de los grupos, pero no pro-
porciona mas información sobre donde están las diferencias o cuál(es) de los grupos es(son) diferente(s).
CAPÍTULO 5. ANALYZE (ANALIZAR) 45

Figura 5.17: Análisis de Varianza, tiempo de atención por departamento

Para poder determinar esto, es necesario realizar lo que se conoce como un análisis Post Hoc
4 que sirve
justamente para determinar con mayor detalle las diferencias entre grupos. Existen una gran variedad
de este tipo de pruebas, algunas más robustas que otras. Una de las más utilizadas y conables es la
denominada prueba de Tukey. Esta prueba compara los diferentes grupos en parejas para determinar
en cuales de las parejas existen diferencias signicativas. El panel de consola muestra el resultado que
arroja la prueba de Tukey sobre el análisis de varianza de los departamentos. La última columna de la
derecha denominada p adj se reere al p-value ajustado cuya interpretación es la misma que ya se ha
explicado. En este caso particular, se observa que existen diferencias estadísticamente signicativas entre
los grupos B y A y entre C y B, mientras que los grupos A y C no muestran diferencias considerables,
lo cual también puede notarse al observar los grácos de caja. Esto indica que el grupo que es diferente
a los otros es el B.
En conclusión para este ejemplo, es necesario identicar la razón por la cual el departamento B tiene
tiempos de procesamiento signicativamente diferentes a los otros dos y si la premisa es que a menor
tiempo es mejor, entonces el departamento B es el mejor de los 3.

Variable Cuantitativa vs. Variable Cuantitativa (Análisis de Regresión)


La relación entre dos variables cuantitativas se explora por medio del Análisis de Regresión y Co-
rrelación. Para desarrollar el ejemplo para ilustrar esta sección, se utilizarán los datos contenidos en
la pestaña Caeine-2 del archivo de Excel que se ha venido utilizando en este capítulo. Estos datos
corresponden, al igual que en casos anteriores, al proceso de extracción de cafeína del café. En este caso,
se presentan dos variables: la variable Caeine que contiene el % residual de cafeína en un lote después
de la extracción y la variable ExtTime que se reere al tiempo de extracción de cada lote, en minutos.
Se omite el paso de la lectura de los datos desde Excel a R dado que esto ya se ha ilustrado con
anterioridad. La gura 5.18 muestra el resultado del análisis de la relación entre estas dos variables
cuantitativas. El primer paso para explorar la relación entre dos variables de este tipo debe siempre
ser la construcción de un gráco de dispersión, tal y como se ilustra en la gura. Esto permite evaluar
preliminarmente y de manera cualitativa, que tan fuerte puede ser la relación entre dichas variables. En
la gráca que se muestra, puede verse que es evidente la existencia de una relación entre el tiempo de

4 https://www.ibm.com/support/knowledgecenter/es/SSLVMB_22.0.0/com.ibm.spss.statistics.help/spss/base/idh_onew_post.htm
CAPÍTULO 5. ANALYZE (ANALIZAR) 46

Figura 5.18: Análisis de Regresión en R/RStudio

extracción, que en este caso corresponde a la variable independiente, con la cantidad de cafeína residual,
que es para este ejemplo, la variable independiente. La relación en este caso es inversa, es decir, mientras
mayor es el tiempo de extracción, menor es el contenido de cafeína residual en el lote de café, lo cual
es consistente con lo que se podría esperar, aunque hay que resaltar que lo que la intuición sugiere, no
siempre es corroborado por la evidencia empírica cuando existen otros factores o relaciones complejas y
de ahí la importancia de explorar los datos en todas las formas posibles en esta etapa.
La relación entre las dos variables bajo análisis es claramente inversa y en principio puede parecer que
se aproxima a una relación lineal, pero es necesario corroborar esto mediante un análisis de regresión.
R permite de una manera muy sencilla construir un modelo lineal entre dos variables utilizando la
función lm() como se muestra en la gura. El resultado de esta función también puede observarse en la
gura y es importante analizar cada uno de los componentes de este resultado para entender la correcta
interpretación del modelo. Para iniciar, hay que enfocarse en la parte que contiene los coecientes del
modelo. Dado que este ejemplo se trata de un modelo lineal univariado que tiene la forma y = a + b*x, se
obtienen 2 componentes del modelo: un intercepto (a) y un coeciente (b) para la variable independiente
Para estos datos, el modelo lineal queda de la siguiente forma:

Cafeina Residual = 0.209742 - 0.00384 * Tiempo de Extracción

Este modelo puede entenderse de la siguiente manera: Cuando el tiempo de extracción es 0, el


contenido de cafeína en el café es de 0.209742, lo que podría interpretarse como el contenido inicial del
café que se procesa. Luego, por cada minuto que dura el proceso de extracción, el contenido de cafeína
se reduce en 0.00384. Es importante resaltar que este modelo solo puede ser válido dentro del intervalo
de valores que contiene los datos utilizados, es decir, hacer una extrapolación del modelo a datos que
están mas allá de los datos experimentales puede llevar a conclusiones erróneas.
La última columna de la parte de coecientes contiene el p-value para cada componente del modelo.
La interpretación de esto es similar a la que se hace en las pruebas de hipótesis. En este caso, la hipótesis
nula es que la variable independiente no está relacionada con la variable dependiente, es decir, el tiempo
de extracción no incide en el porcentaje residual de cafeína. Dado que el p-value para el Tiempo de
Extracción es signicativamente menor al nivel de signicancia acostumbrado (0.05) se puede rechazar
CAPÍTULO 5. ANALYZE (ANALIZAR) 47

la hipótesis nula en favor de la hipótesis alternativa y concluir que esta variable sí incide en la variable
respuesta o dependiente. Mientras mas bajo el valor del p-value, mayor es la signicancia estadística de
la relación, lo cual se representa con el número de asteriscos (*) que se colocan junto al p-value. En este
caso se puede decir que la relación entre ambas variables es bastante signicativa.
El otro aspecto importante de la interpretación del modelo está en la parte inferior del resumen
del modelo y se reere a lo que se denomina R cuadrado o Coeciente de Determinación. Para la
interpretación de este coeciente, hay que recordar que para realizar el análisis de regresión se relacionan
las varianzas de cada una de las variables, dependiente e independiente y la covarianza de ambas. El
valor del Coeciente de Determinación indica la fracción (o porcentaje, si se desea) de la variación de la
variable dependiente que es explicada por la variación de la variable independiente. En este caso, el valor
de 0.8597 indica que aproximadamente un 86 % de la variación del porcentaje de cafeína residual puede
atribuirse a la variación del tiempo de extracción. Como complemento, se deduce que aproximadamente
un 14 % de la variación del porcentaje de cafeína residual no se explica por el tiempo de extracción
por lo que habría que considerar otros factores que inciden en la variable dependiente e incluirlos en el
modelo para mejorar este valor. Esto se verá en la sección de Regresión Multivariada.

Variable Cualitativa vs. Variable Cualitativa (Test de Hipótesis de Independencia)


El análisis de dos variables cualitativas generalmente se hace para mostrar si existe alguna depen-
dencia entre dichas variables o factores, es decir, si la distribución de los niveles de un factor dependen
de los niveles que el otro tome. Este análisis se basa en la premisa que la proporción de valores de una
variable cualitativa debe ser bastante similar para cada uno de los valores de la otra variable cualitativa.
De ser así, se dice que ambas variables son estadisticamente independientes. Si las proporciones de la
primera variable son signicativamente diferentes para cada uno de los valores de la segunda variable,
entonces se dice que no existe independencia y que una variable incide en la otra. La prueba estadística
para esto se denomina Test de Independencia de Chi Cuadrado y se ilustrará a continuación.
Para el ejemplo de esta sección, se utilizará la pestaña Hospital del archivo de Excel que se ha
venido utilizando. Este set de datos proviene de un hospital y se reere a los datos de una muestra de 269
pacientes que fueron tratados por uno de tres especialistas (P, Q y R) y en dos departamentos diferentes
(A1 y A4). Los datos contienen 3 columnas: Paciente, Especialista y Departamento. Se desea determinar
si existe una relación entre el factor Especialista (3 niveles) con el factor Departamento (2 niveles) para
saber si es igualmente probable ser atendido por cualuqiera de los especialistas en cualquiera de los dos
departamentos o si hay más o menos probabilidad de ser atendido por uno de los especialistas en uno
de los departamentos.
La gura 5.19 muestra el análisis realizado en R y RStudio, el cual se explica a continuación. Se
deben copiar y pegar los datos desde Excel como ya es usual. En este caso solamente se utilizarán
2 de las 3 variables para el análisis, es decir, la variable Paciente no se considera sino solamente las
variables Especialista y Departamento que son de tipo cualitativo categórico. Dado que estos datos
se encuentran en forma detallada, el primer paso es construir una tabla de contingencia de estas dos
variables utilizando la función table(). A partir de esta función se obtiene una tabulación de los datos
como se observa en la gura. De esta tabla puede observarse que en apariencia, la mayor parte de
pacientes fueron atendidos en el departamento A1. También se aprecia que esta situación se dió en el
caso de los 3 especialistas, es decir, tanto P, Q como R atienden más pacientes en el departamento A1
que en el A4, aunque no es evidente si la proporción de pacientes atendidos en ambos departamentos
es diferente entre los especialistas. Para esto, puede ser más util, como siempre, tratar de visualizar los
datos utilizando una representación gráca. La gráca a utilizar en este caso se denomina gráco de
mosaico y puede observarse en la gura.
La gráca muestra que existen ligeras diferencias entre las proporciones de A1 y A4 para cada
especialista. Si las proporciones fueran iguales, las alturas de las barras sería la misma para P, Q y
R. Lo que procede es determinar si estas diferencias aparentes son estadísticamente signicativas para
decir que existe relación entre el departamento y los especialistas. Para esto, se ejecuta la prueba Chi
Cuadrado sobre la tabla de contingencia como puede observarse en la gura. La hipótesis nula en este
caso es que ambas variables son independientes, mientras que la hipótesis alternativa es que las variables
están relacionadas o no son independientes. Al igual que en las otras pruebas de hipótesis, se establece
CAPÍTULO 5. ANALYZE (ANALIZAR) 48

Figura 5.19: Test de Independencia en R/RStudio

un nivel de signicancia de 0.05 por lo que se debe contrastar el p-value obtenido contra este valor. El
p-value obtenido es de 0.41 que es mayor al nivel de signicancia, por lo que se concluye que los datos
no proporcionan suciente evidencia para rechazar la hipótesis nula, es decir, el departamento en que
se atiende a un paciente no tiene relación con el especialista que lo atiende.

Análisis Multivariado
Análisis de Regresión Multivariada
Análisis de Regresión Logística
Análisis Cualitativo de Procesos
El concepto de desperdicio de la losofía LSS está íntimamente ligado al concepto de valor
agregado. Debe entenderse por desperdicio todo aquello dentro de un proceso de cualquier tipo,
que no agrega valor pero que sí consume recursos, por lo que tiene un costo asociado que encarece el
producto o servicio sin hacerlo mejor de cara al cliente. Por valor agregado se entiende todo aquello
que acerca el producto o servicio a lo que el cliente desea y espera, incrementa su satisfacción y es algo
por lo cual está dispuesto a pagar un precio determinado. Cuando se habla de Valor Agregado, hay
que considerar que en todo proceso existen distintos tipos de clientes, tanto internos como externos y el
valor debe tomarse en cuenta desde la perspectiva de cada uno de ellos, ya que lo que para un cliente
externo puede no ser de valor, para alguien interno a la organización puede ser de mucho valor. Un
ejemplo claro de esto puede ser el proceso contable; llevar registros contables, la generación y posterior
análisis de informes nancieros no se consideraría de valor para un cliente externo de la empresa, a
quién le sería totalmente indiferente si la empresa lo realiza o no, pero es de enorme valor para los
tomadores de decisiones dentro de la organización quienes obtienen información que les permite tener
mejores criterios para tomar tales decisiones. Otro ejemplo desde una perspectiva diferente puede ser la
gestión ambiental; una actividad que busque minimizar el impacto de un proceso de manufactura en el
medio ambiente puede no ser de importancia para el consumidor del producto, pero es muy importante
para otros stakeholders externos, por ejemplo, las personas y/o comunidades que se viven dentro del
área de inuencia de la planta de manufactura.
CAPÍTULO 5. ANALYZE (ANALIZAR) 49

Figura 5.20: Cuadro para el Análisis de Valor Agregado

El análisis cualitativo de procesos puede realizarse desde distintas perspectivas, pero en este caso se
hará desde el punto de vista del Valor Agregado mediante una técnica denominada Análisis de Valor
Agregado o AVA. Para realizar el análisis se deben seguir los pasos que se describen a continuación:
a) Hacer un listado o diagrama secuencial de los pasos o etapas que conforman el proceso.
b) Identicar a los stakeholders del proceso. Esta clasicación puede tener 2 o más categorías que
usualmente tienen a los Clientes Externos en un lado y a otros interesados como Accionistas, Empleados,
etc. ya sea agrupados en una misma categoría o separados, según sea la importancia de la categoría para
el análisis.
c) Construír una tabla como la que se muestra en la gura 5.20 que tiene dos dimensiones, la primera,
si el paso agrega valor para alguno de los stakeholders y la segunda, si el paso es necesario o no.
d) Para cada paso se debe marcar una X en la casilla correspondiente, tanto en la dimensión de valor
agregado como en la dimensión de necesario/no necesario.
A partir de esta tabla, las actividades del proceso pueden dividirse en 4 categorías:

De valor agregado y necesarias : Son aquellas que contribuyen al cumplimiento de los requerimien-
tos del cliente y que por lo tanto los clientes están dispuestos a pagar.

De valor agregado y no necesarias : Son actividades que pueden ayudar a mejorar la satisfacción
del cliente pero que no necesariamente hacen parte de sus requerimientos.

Sin valor agregado y necesarias : Algunas actividades regulatorias, scales o de otro tipo que no
agregan valor pero no pueden dejarse de realizar.

Sin valor agregado y no necesarias : Actividades que no contribuyen a la satisfacción de los clientes y
que tampoco son requisitos o regulaciones, por ejemplo, reprocesos, inspecciones, almacenamiento,
etc.

De esta segmentación de las actividades, se puede empezar a identicar posibles acciones que permitan
la mejora del proceso desde el punto de vista de eciencia. Esto se logra por medio de algunas medidas
que se toman según sea la clasicación de la actividad, por ejemplo:

Si agrega valor y es necesaria: hacerla más eciente, mejorarla.

Si agrega valor y no es necesaria: monetizarla, dar al cliente la opción si la desea o no y establecer


precios diferenciados.

Si no agrega valor y es necesaria: automatizarla, consolidarla con otras, reducir el tiempo y los
recursos invertidos en realizarla.

Si no agrega valor y no es necesaria: eliminarla por completo.

Otra forma de realizar un Análisis de Valor Agregado puede ser incorporar el tiempo que cada actividad
o etapa del proceso requiere, para determinar el porcentaje de tiempo del proceso que es de valor
agregado y el porcentaje que puede considerarse desperdicio. Hay que resaltar que aún en los procesos
de empresas de clase mundial, el porcentaje de tiempo de Valor Agregado es relativamente bajo respecto
al total. Esto dependerá del tipo de proceso, por ejemplo, en el caso de la manufactura, es poco común
CAPÍTULO 5. ANALYZE (ANALIZAR) 50

Figura 5.21: Análisis de Valor Agregado con Tiempos

ver procesos con más de un 10 % de tiempo de valor agregado respecto al total, mientras que en el caso
de los procesos transaccionales, el porcentaje puede ser un poco mayor pero raras veces se observan
valores arriba del 20 %
5.
La gura 5.21 muestra un ejemplo de la forma de realizar el análisis considerando el tiempo para
cada paso del proceso. En esta imagen puede observarse que para este proceso, el porcentaje de tiempo
que corresponde al valor agregado es apenas de un 3.4 % o sea 4 horas de un total de 116.5 horas de
tiempo de ciclo. Aunque es claro que esto es un muy bajo ratio de valor agregado, si se desea ver el lado
positivo, existe un enorme espacio de mejora para este proceso.

Análisis Cuantitativo de Procesos


El Análisis Cuantitativo de Procesos es una de las herramientas clave en la metodología de LSS,
especícamente en el aspecto de Lean, ya que permite analizar un proceso desde la perspectiva de
eciencia. Este análisis permite identicar muchos aspectos de un proceso que sirven para evaluar su
desempeño respecto a la capacidad de satisfacer la demanda en términos de cantidad más que de calidad.
Como ya se ha mencionado, la metodología LSS hace uso de una diversidad de herramientas que
provienen de distintas disciplinas de conocimiento, especialmente de la ingeniería. Esta herramienta en
particular tiene sus raíces en la Ingeniería Industrial, los principios de la Administración Cientíca, los
Métodos Cuantitativos y la Investigación de Operaciones.
El ACP
6 se basa en el cáculo de varios indicadores de desempeño, los cuales en principio están
basados en uno de los conceptos más importantes en el pensamiento Lean: La Ley de Little, que como
se sabe, expresa lo siguiente:
L = W*λ
donde:
5 https://www.accountingtools.com/articles/2017/5/17/value-added-ratio
6 Análisis Cuantitativo de Procesos
CAPÍTULO 5. ANALYZE (ANALIZAR) 51

(a) Modelo del proceso a analizar

(b) Datos del proceso a analizar

Figura 5.22: Análisis Cuantitativo de Procesos

L: Cantidad de transacciones en el sistema en cualquier momento determinado (también se reere


al inventario en proceso o WIP).
W: Tiempo que cada transacción tarda en pasar por todo el sistema o proceso.
λ: Tasa de ujo de llegadas al sistema.
La aplicación de la Ley de Little requiere algunas consideraciones importantes. Primero, el sistema
debe estar en un estado estable, segundo, la capacidad del sistema debe ser mayor a la demanda (λ),
de lo contrario nunca se alcanzaría el estado estable y por último, la ley requiere y genera valores
promedio, pero no proporciona ninguna información sobre la variabilidad de los resultados. A pesar de
estas limitaciones, este modelo ha sido ampliamente utilizado durante décadas para analizar, evaluar y
pronosticar el desempeño de varios procesos de todo tipo y es fundamental en el estudio de sistemas de
líneas de espera o teoría de colas.hace uso de una diversidad de herramientas que provienen de distintas
disciplinas de conocimiento, especialmente de la ingeniería. Esta herramienta en pa
En este caso, se utilizará este análisis para evaluar un proceso basado en las premisas y condiciones
que se mencionaron, es decir, en estado estable, capaz de cubrir la demanda y tomando los valores
promedio. En capítulos posteriores, se utilizarán otras herramientas, como la simulación de procesos,
para estudiar casos donde se considera la aleatoriedad y variabilidad en los parámetros de un proceso.
Para desarrollar este ejemplo, se hará uso de Excel y Bizagi para realizar el análisis cuantitativo
de un proceso simple, que puede representar un proceso transaccional o una línea de producción, que
contiene 6 pasos en secuencia, como se muestra en la gura 5.22 (a). En la parte (b) se muestran los
datos del tiempo promedio (en minutos) que toma la ejecución de cada una de las actividades por parte
del recurso asignado a dicha actividad. Se asume que hay una persona designada para realizar cada
etapa del proceso. Se sabe que la tasa de demanda λ para este proceso es de 7 unidades/hora.
A partir de esos datos, es posible realizar los cálculos necesarios para el análisis cuantitativo, los
cuales se describen a continuación y que se muestran en la gura 5.23:
a) La capacidad de cada etapa se obtiene del inverso de tiempo de proceso respectivo, por ejemplo,
si el tiempo de proceso es 5 min, la capacidad de esa etapa es 1/5 unidades por minuto.
b) Para obtener la capacidad por hora, solamente se requiere multiplicar el resultado anterior por
60.
c) Dado que cada etapa tiene una capacidad diferente, se debe identicar la menor de las capacidades
CAPÍTULO 5. ANALYZE (ANALIZAR) 52

ya que ésta es la que limita la capacidad de todo el proceso, por lo que se denomina cuello de botella,
que en este caso, corresponde a la actividad 5 que tiene una capacidad de 7.5 unidades/hora. Esto se
debe comparar con la demanda del proceso que es de 7 para asegurarse que se tiene la capacidad de
procesar la demanda. Si la capacidad del cuello de botella fuera menor a la demanda, las unidades se
acumularían en esta etapa del proceso y la cantidad de WIP crecería indenidamente.
d) Como la capacidad del proceso es mayora a la demanda, la tasa de ujo es igual a la demanda,
es decir, 7 unidades/hora
e) El tiempo de ujo se obtiene de sumar todos los tiempos de las actividades, ya que se asume que
es el tiempo que cada unidad requerirá para pasar por todo el proceso, en este caso es de 31 minutos o
0.52 hrs.
f ) Teniendo el Tiempo de Flujo (W=0.52 hr) y la Tasa de Flujo (λ = 7u/hr) ya se cuenta con los
elementos necesarios para aplicar la Ley de Little y obtener el promedio de unidades que se encuentran
en proceso que son en promedio 3.62, es decir, usualmente se tendrá entre 3 y 4 unidades que están
siendo procesadas, aunque el valor es ligeramente mas cercano a 4 por lo que habrá mas tiempo que
haya 4 que 3.
g) El Tiempo de Ciclo se calcula como el inverso de la Tasa de Flujo, es decir, 1/7 hrs/unidad o 8.57
min/unidad, es decir, cada 8.57 minutos el proceso produce una unidad.
h) El Tiempo Muerto, o sea, el tiempo que cada recurso se encuentra sin ser utilizado, se calcula
restando del Tiempo de Ciclo, el Tiempo de Proceso de cada actividad y el Tiempo Muerto Total es la
suma de cada uno de los tiempos muertos.
i) La utilización de recurso es el cociente entre el Tiempo de Proceso de cada actividad y el Tiempo
de Ciclo. Aquí puede observarse que el recurso 2 tiene una utilización de solamente un 35 % y el recurso
3 de un 46 %, esto indica una subutilización en estos 2 recursos que representa desperdicio, ya que es
tiempo que se paga pero no se utiliza.
j) La utilización del proceso es el cociente entre la Demanda y la Capacidad de Proceso que es
igual a la capacidad del cuello de botella. Aunque en ciertas partes del proceso existe subutilización,
la utilización general del mismo es alta porque está muy cerca de la capacidad. Esto puede verse en
la utilización del recurso 5. Si se incrementa la demanda, este recurso será insuciente para cubrir el
incremento, por lo que habrá que incrementar esa capacidad si se desea crecer.
k) Al contar con el costo por hora que representa cada recurso, es posible calcular el costo total por
hora para el proceso, que en este caso es de 106.00 Q/u . Al dividir este costo entre la tasa de ujo del
proceso (7 u/hr) se obtiene el costo directo de Mano de Obra de cada unidad procesada, que para este
caso es de 15.16 Q/unidad.
l) Si se multiplica el costo/hora de cada recurso por su ineciencia (1 - utilización) se obtiene el
costo de la ineciencia, es decir, lo que se paga pero no se convierte en valor agregado. Al sumar todos
esos costos se obtiene que de los Q 106 que se pagan en total por hora, Q39.03 corresponden a dicha
ineciencia, lo que representa un 37 % del total y que equivale a Q 5.58 por cada unidad. Es decir, de
los Q 15.16 que cuesta cada unidad en mano de obra directa, mas de la tercera parte es desperdicio por
ineciencia.
El análisis anterior ilustra toda la información que puede obtenerse del análisis cuantitativo del
proceso desde la perspectiva de eciencia y costos. Hay que considerar que ese costo de ineciencia de
Q5.58 por unidad en la práctica quizá no pueda ser eliminado por completo pero es muy importante
saber cuanto representa ese desperdicio para poder evaluar el impacto de cualquier mejora que pueda
hacerse.
Otra forma de realizar el análisis de una forma práctica es utilizando las capacidades de simulación
que tiene Bizagi. Esto sirve para conrmar los resultados obtenidos, pero en lugar de usar las fórmulas
teóricas, los resultados se obtienen de simular el proceso. Para esto, se accede a la Vista de Simulación
en el cintillo de inicio de Bizagi y dado que ya se tiene el diagrama del proceso, solo es necesario proceder
a parametrizar el modelo con los tiempos y los recursos.
La gura 5.24 muestra los resultados de ejecutar la simulación durante 5 días consecutivos de 24
horas laborales, para garantizar que se generaran sucientes transacciones para que los resultados fueran
signicativos. Los resultados de utilización de cada recurso por simulación son casi idénticos a los
resultados obtenidos en forma analítica, como se muestra en la tabla 5.1.
En esta simulación se generaron 841 transacciones durante las 120 horas que duró el ejercicio. Como se
CAPÍTULO 5. ANALYZE (ANALIZAR) 53

Figura 5.23: Resultados Análisis Cuantitativo del Proceso

Recurso Utilización (Analítico) Utilización (Bizagi) Utilización (Jaamsim)

1 58.3 % 58.35 % 58.33 %


2 35.0 % 35.0 % 35.0 %
3 46.7 % 46.64 % 46.59 %
4 70.0 % 69.92 % 69.84 %
5 93.3 % 93.12 % 92.96 %
6 58.3 % 58.14 % 57.99 %

Cuadro 5.1: Comparación entre Utilización Teórica y por Simulación

puede observar en la gura 5.24 (b), 837 transacciones nalizaron el proceso, lo que indica que quedaron
4 transacciones en proceso, lo cual es consistente con lo que se había calculado a partir de la Ley de
Little, si se repitiera la simulación muchas veces, lo que se espera es que algunas veces se obtenga un
valor de 4 y otras un valor de 3 unidades en proceso. Otra forma de obtener el valor del WIP promedio
a partir de los datos de la simulación, es sumar la utilización obtenida de cada una de las etapas. Si
se suma 0.5835 + 0.35 + 0.4664 + 0.6992 + 0.9312 + 0.5814 se obtiene 3.6117 que es muy cercano al
3.62 obtenido mediante la Ley de Little, lo que conrma experimentalmente la validez teórica de esta
relación. Los tiempos de cada actividad son exáctamente los que se setearon ya que para este ejemplo
se denieron tiempos constantes; en capitulos posteriores se verá como incorporar la variabilidad a los
datos.
También es posible realizar la simulación de este proceso utilizando Jaamsim. Jaamsim, como se
mencionó en la primera parte de estas notas, es una maravillosa herramienta de software libre, capaz de
competir con software industrial de simulación que tiene un costo de licenciamiento en el órden de los
miles de dólares. En el caso de modelación y simulación de procesos complejos, dígase del tipo industrial,
de manufactura o logísticos, Jaamsim es muy superior a Bizagi, por lo que se preere esta herramienta
para el análisis de modelos mas complicados, aunque en este caso, el modelo es bastante simple dado
que es un proceso secuencial y relativamente sencillo.
La gura 5.25 (a) muestra el diagrama con el modelo en Jaamsim y la parte (b) de la misma gura
muestra una pequeña parte del informe de resultados de la simulación. La tabla 5.1 incluye también
los resultados de utilización de cada uno de los recursos obtenidos mediante la simulación en Jaamsim.
Como puede observarse, los resultados de utilización son casi idénticos a los obtenidos tanto por el
análisis cuantitativo como por la simulación en Bizagi. También se muestra en la gura que, al nalizar
CAPÍTULO 5. ANALYZE (ANALIZAR) 54

(a) Resultados de utilización de recursos

(b) Resultados de tiempo de proceso

Figura 5.24: Análisis Cuantitativo de Proceso por Simulación


CAPÍTULO 5. ANALYZE (ANALIZAR) 55

(a) Modelo del proceso en Jaamsim (b) Extracto del reporte de simulación de Jaamsim

Figura 5.25: Análisis Cuantitativo de Procesos con Jaamsim

la simulación, quedan 4 transacciones (representadas por las esferas) en el proceso, lo cual es consistente
con lo que se había predicho por medio del análisis y la Ley de Little y por el resultado obtenido de la
simulación en Bizagi. El informe de resultados que arroja Jaamsim es mucho más detallado y completo
que los resultados que se obtienen de Bizagi, por lo que su análisis se deja para una sección posterior.

Reproceso, Rolled Throughput Yield (RTY) y la Fábrica Oculta


El análisis de Rolled Throughput Yield o RTY es una técnica muy ilustrativa sobre el impacto que
tiene el reproceso en la utilización de los recursos y por ende, en el desperdicio del proceso, desde la
perspectiva de la calidad del producto, es decir, de la ecacia del proceso. El enfoque tradicional para
analizar la ecacia de un proceso de producir bienes o servicios que cumplen con las especicaciones del
cliente, es evaluar únicamente el % de cumplimiento en la salida del proceso, es decir, en el último paso
del mismo. Este enfoque para el cálculo de la ecacia de un proceso no considera todo lo que sucede en
las etapas anteriores, el reproceso y el desperdicio que ocurre y que no se ve, por lo que se le ha dado
un nombre muy representativo: la fábrica oculta. La gura 5.26 muestra este enfoque y sus efectos
en términos económicos. Cada paso tiene un nivel de ecacia o calidad para cumplir requerimientos o
especicaciones; todo aquello que no cumple debe ser reprocesado o desechado previo al paso siguiente
en el proceso. Al nal, el rendimiento general del proceso se calcula tomando en cuenta lo que salió
respecto a lo que entró, pero no se considera todo lo que tuvo que pasar varias veces por el proceso para
ser corregido, lo cual consume recursos y tiene un costo alto para la organización. El concepto de Rolled
Throughput Yield se reere al rendimiento acumulado del proceso, considerando cada una de las etapas
del mismo y denido como el porcentaje de las unidades que pasaron por cada etapa sin que requirieran
reproceso o reparación; también se conoce como First Pass Yield (FPY) o Rendimiento de Primera
Pasada y para su cálculo, se deben multiplicar los rendimientos individuales de cada uno de los pasos,
expresados en forma de fracción o decimal, es decir, valores que siempre van a ser menores o iguales a 1.
Por simple razonamiento matemático, cuando se multiplican valores menores a 1, el resultado siempre
va a ser menor al menor de los multiplicandos, por lo que de aquí se puede deducir que el RTY del
proceso completo siempre será menor al menor de los rendimientos de los pasos del proceso. En el caso
CAPÍTULO 5. ANALYZE (ANALIZAR) 56

Figura 5.26: RTY y la fábrica oculta

del ejemplo de la gura 5.26 el menor de los pasos tiene un rendimiento de 94.4 % o 0.944 y dado que
los demás pasos tienen rendimiento menor a 1, el rendimiento global del proceso será menor a ese 0.944.
El cálculo teórico del RTY para un proceso permite estimar el valor de la ecacia de un proceso pero
no proporciona mayor información sobre otros aspectos del proceso que son de interés para entender
el efecto negativo que el reproceso tiene sobre los recursos. Para eso, se puede recurrir nuevamente a
la simulación. Para ilustrar esto se utiliza nuevamente Bizagi y sus capacidades de simulación en un
proceso muy simple, con 3 actividades secuenciales, cada una congurada con el mismo porcentaje de
ecacia, para simplicar los cálculos. Se realizó la simulación y se obtuvieron los datos para diferentes
valores de reproceso por etapa, empezando por 2 % y llegando hasta 50 % para mostrar La gura 5.27
muestra el diagrama del proceso y un cuadro con los resultados obtenidos.
Hay varias cosas que son muy importantes de notar en este ejemplo; primero, cada corrida de la
simulación se ejecutó para 24 horas, por lo que en todas las corridas se generaron exáctamente la misma
cantidad de unidades que entraron al proceso, es decir, 577, pero la cantidad de unidades que llegaron
a la salida del mismo va disminuyendo al ir incrementando el reproceso, lo cual hace sentido. En el caso
del 2 % de reproceso por etapa, la cantidad de unidades que salen son 574, lo que equivale a un 99.5 % de
efectividad desde el punto de vista convencional. Sin embargo, el RTY, tanto teórico como experimental,
es de 94 %, es decir, solo el 94 % de las unidades no fueron reprocesadas, habiéndose reprocesado un total
de 37 unidades. Otra cosa a observar es la utilización promedio de los recursos. Con un 2 % de reproceso,
dicha utilización es del 76 %. Conforme se incrementa el reproceso por etapa, el impacto empieza a
hacerse más evidente. La utilización promedio de los recursos se va incrementando, pero esta utilización
no implica mas productividad sino todo lo contrario, ya que la cantidad de unidades producidas va
disminuyendo, es decir, se consume más trabajo y se producen menos unidades conformes. Otra cosa que
se puede observar es que conforme se incrementa el porcentaje de reproceso por etapa, el RTY obtenido
experimentalmente va divergiendo respecto al RTY teórico. Al principio, para valores de reproceso bajos,
ambos RTY son bastante cercanos, pero para valores de reproceso mayores, el RTY teórico es mucho
más conservador sobre el resultado mientras que el RTY experimental es mucho más bajo, llegando a
ser negativo a partir de ciertos valores de reproceso. Aunque pueda parecer contraintuitivo, los valores
de RTY negativos tienen una interpretación práctica, ya que el total de unidades reprocesadas es mayor
al total de unidades que entraron al proceso, ésto porque algunas unidades fueron reprocesadas más de
una vez. En la práctica, el autor de estas notas ha sido testigo de procesos, especialmente transaccionales
(banca y nanzas) donde una misma transacción es reprocesada en promedio hasta 5 veces, por lo que
esto no es algo descabellado.
Finalmente, obsérvese el tiempo promedio que cada transacción buena tardó para atravesar todo
el proceso. Para un reproceso de 2 % el tiempo fue de 7 minutos pero para un 20 % de reproceso, el
tiempo se dispara a 170 minutos, es decir, casi 3 horas para procesar algo que, si se hubiese hecho bien
en cada etapa a la primera, tomaría solamente 4.5 minutos. Esto es desperdicio en su máxima expresión.
La simulación también puede realizarse en Jaamsim, que como ya se indicó, tiene capacidades muy
CAPÍTULO 5. ANALYZE (ANALIZAR) 57

Figura 5.27: Efectos de la Fábrica Oculta

superiores a Bizagi para procesos más complejos, además de permitir obtener mas información estadística
y analítica sobre el proceso. En la gura 5.28 se puede observar el proceso modelado y la simulación
ejecutada para un reproceso del 2 %. En Jaamsim es posible calcular y desplegar resultados calculados
a partir de otros datos de la simulación por lo que en este caso se despliega el resultado del RTY
experimental para el 2 % de desperdicio, que arroja un valor de 93.81 % que es muy cercano al 94 %
teórico. Los resultados obtenidos para los demás valores de desperdicio son muy similares a los obtenidos
por Bizagi, los cuales ya fueron analizados.
CAPÍTULO 5. ANALYZE (ANALIZAR) 58

Figura 5.28: RTY en Jaamsim


Capítulo 6

IMPROVE (Mejorar)

Simulación de Monte Carlo


La simulación como metodología para resolver problemas prácticos surgió durante la segunda guerra
mundial, dentro del Proyecto Manhattan. En la actualidad, dada la gran disponibilidad de herramientas
computacionales (hardware y software) al alcance de todos, esta metodología puede ayudar a cualquier
persona u organización a analizar e identicar oportunidades de mejora en sus procesos.
Existen diferentes tipos de simulación, cada una con un propósito especíco. La técnica de Simulación
de Monte Carlo es una metodología muy útil para la evaluación de modelos estáticos complejos que tienen
como entradas variables tanto de tipo determinista como probabilístico. Se hace énfasis en la naturaleza
estática de los modelos, lo que implica que generalmente el tiempo no es una variable de interés, ya que
esto es lo que diferencia a esta técnica de la Simulación de Procesos que se verá en la sección siguiente.
En el caso de la aplicación de la metodología LSS, esta herramienta es sumamente útil en la evaluación
del impacto de cambios o mejoras que pueden alterar los parámetros de una variable probabilística que
incida directamente en un CTQ.
Los pasos para realizar un ejercicio de Simulación de Monte Carlo son los siguientes:
a) Denir y delimitar el modelo a simular.
b) Identicar las variables relevantes que compomen el modelo.
c) Clasicar las variables en probabilísticas y deterministas.
d) Para las variables probabilísticas, se debe denir la distribución y los parámetros y para las
variables deterministas, los valores que toman.
e) Construir el modelo, identicando las salidas o resultados que son de interés para el análisis.
f ) Generar una gran cantidad de datos a partir de las distribuciones de las variables probabilísticas y
calcular el modelo para cada combinación de valores de dichas variables probabilísticas con las variables
deterministas.
g) Tabular y analizar estadísticamente los resultados del modelo, principalmente su distribución y
los parámetros de la misma.
Para demostrar el uso de esta técnica y las herramientas informáticas que facilitan su aplicación,

Figura 6.1: Simulación de Monte Carlo

59
CAPÍTULO 6. IMPROVE (MEJORAR) 60

Figura 6.2: Cilindro y pin

se recurrirá a un ejemplo muy simple. Supóngase que se tiene un proceso metal-mecánico donde se
producen 2 tipos de piezas que son parte de un sistema mas complejo. La primera de las piezas tiene
forma cilíndrica, hueca en el centro y la otra es un pin o cilindro sólido que va inserta dentro de la
primera. La gura 6.2 muestra una ilustración de estas piezas. Las piezas se toman tal y como van
saliendo de cada proceso y se combinan en el orden en que salen. El principal requerimiento de calidad
para estas piezas es el ajuste que existe entre el pin y el cilindro. Este ajuste depende directamente del
diámetro interno del cilindro y del diámetro externo del pin. Si el espacio (diferencia de diámetros) entre
el pin y el cilindro es muy grande, el ajuste será pobre y existirá demasiado movimiento lo que ocasiona
problemas de funcionamiento del mecanismo. Si la diferencia es muy pequeña, puede ser que el pin no
quepa dentro del cilindro o entre demasiado forzado lo cual también causa problemas.
El diámetro interno del cilindro debe ser de 500 milésimas de pulgada y el diámetro externo del
pin debe ser de 497 milésimas, por lo que, asumiendo una posición concéntrica del pin, debería quedar
un anillo de 1.5 milésimas de ancho entre el cilindro y el pin, lo que se considera ideal. La fabricación
de ambas piezas se realiza utilizando equipo de alta precisión que es capaz de producir los diámetros
esperados, sin embargo, la máquina produce demasiadas unidades que no cumplen la especicación del
ajuste. Existen 2 tipos de problema, el primero, que la diferencia de diámetros sea menor a 1 milésima,
si esto sucede, el pin puede ser reprocesado para reducir ligeramente su diámetro y poder cumplir con
el ajuste requerido, pero esto es claramente un retrabajo o reproceso. El segundo problema es que la
diferencia de diámetro sea mayor a 5 milésimas, lo que implica que el espacio entre el pin y el cilindro es
mayor a 2.5 milésimas, lo que ocasiona exceso de holgura y por ende, problemas de desempeño. Cuando
esto sucede, las piezas deben ser rechazadas ya que no pueden ser reparadas por lo que esto representa
otro tipo de desperdicio.
Historicamente se sabe que el equipo produce piezas cuyas medidas se resumen en la tabla 6.1 y estos
datos se ajustan muy bien, como es común en procesos industriales, a una distribución normal. Como ya
se mencionó, el problema de los rechazos y los reprocesos está incidiendo negativamente en el desempeño
del proceso y en los costos del mismo por lo que se busca una forma de reducir signicativamente la
ocurrencia de estos dos problemas. Una propuesta concreta es el cambio de tecnología para la máquina
que produce las piezas, por una nueva que ofrece reducir la desviación estándar (variación) de los
diámetros a la mitad de lo que actualmente se está obteniendo. Para evaluar el impacto de esta propuesta,
se recurre a la simulación de Monte Carlo, tanto de la situación actual como de la situación futura luego
del cambio de tecnología.
Primero, se evaluará la situación actual por medio de Monte Carlo y se hará utilizando el com-
plemento de Excel llamado Argo, el cual ya se mencionó en la parte introductoria de estas notas. El
primer paso, como se indicó anteriormente, es crear el modelo e identicar las variables, tanto aleatorias
como deterministas que componen el modelo. En esta caso el modelo es relativamente simple, se trata
CAPÍTULO 6. IMPROVE (MEJORAR) 61

Pieza Media (milésimas) Desv (milésimas

Cilindro 500 1.5


Pin 497 1.0

Cuadro 6.1: Datos históricos del proceso

Figura 6.3: Modelación en Excel/Argo

solamente de calcular la diferencia entre el diametro del cilindro y el pin, si esta diferencia es mayor
a 5, constituye un rechazo y si es menor a 1, constituye un reproceso. Las únicas variables de entrada
son solamente los 2 diametros y son variables aleatorias continuas que se distribuyen normalmente de
acuerdo a los parámetros del cuadro 6.1. La gura 6.3 muestra este modelo sencillo en Excel, ahí puede
observarse la tabla con los parámetros de la distribución histórica de cada una de las piezas, así como
el modelo de cálculo abajo. Utilizando la capacidad de generación de números aleatorios de distintas
distribuciones, tanto continuas como discretas que tiene Argo, se generan los datos de los diámetros de
ambas piezas. En este caso se dene que se generen datos normales con los parámetros respectivos para
cada pieza. Con esas dos variables de entrada, se calcula la diferencia para cada pareja de piezas y se
determina si cae en la clasicación de rechazo o reproceso, evaluando si la diferencia es mayor a 5 o
menor a 1 respectivamente.
La simulación se ejecuta generando una muestra de 10000 datos para cada variable, lo que a su
vez produce 10000 resultados para las variables de salida del modelo. Esto debe ser sucientemente
representativo del universo de posibles resultados para el posterior análisis estadístico. Una vez terminada
la simulación, la opción de Analysis Wizard de Argo, aplicada a cada una de las celdas de salida del
modelo, permite obtener un muy detallado análisis de cada variable. Luego de simular la situación actual,
solo es necesario cambiar las desviaciones estándar en la tabla superior y volver a ejecutar la simulación
para el mismo número de datos (10000) y nuevamente se obtienen los resultados en forma rápida. La
gura 6.4 muestra los resultados de ambas simulaciones, antes y después del cambio. Primero, es evidente
que dado que ambas variables se distribuyen normalmente, sus diferencias también se distribuyen de
acuerdo a una curva normal, tal y como lo predice la teoría. De acuerdo a los resultados de la simulación,
en la situación actual, se está produciendo un 12.65 % de reprocesos y un 12.88 % de rechazo. Si se
asume que todo lo que se reprocesa queda dentro de las especicaciones, entonces se puede armar que
un 87.12 % de las piezas son aptas para su uso. Esto es un rendimiento pésimo para los estándares de
Seis Sigma ya que equivale a un nivel de 1.5 Sigma, pero a eso hay que adicionar el costo de reprocesar
un 12.65 % de las piezas por lo que el desperdicio en este proceso es enorme. Luego de hacer el cambio
de las desviaciones para simular el impacto que tendría el cambio de tecnología, se puede observar
que efectivamente se obtiene una reducción importante tanto en el porcentaje de reproceso como en el
porcentaje de rechazo, equivalente a casi un factor de 10. Esto dejaría el porcentaje de producto que
debe rechazarse en 1.25 %, lo que equivale a un nivel de 4 Sigma. Mucho mejor, evidentemente, pero
todavía por debajo de Seis Sigma.
Este mismo análisis puede realizarse en R/RStudio de una forma simple y quizá más exible que
permite llevar mucho mas allá la profundidad del mismo. La gura 6.5 muestra el código para replicar
CAPÍTULO 6. IMPROVE (MEJORAR) 62

Figura 6.4: Resultados Simulación en Argo

el mismo análisis realizado en Excel/Argo pero utilizando R, así como las grácas de los resultados
obtenidos. Aunque es comprensible que la mayoría de personas se sientan mas familiarizadas con Excel
y puedan pensar que es más sencillo realizar la simulación en esta hoja electrónica, en términos de
velocidad, poder de cálculo, exibilidad y simplicidad, no se compara con R. Una de las principales
ventajas de R es la capacidad, al igual que tiene Matlab, de utilizar vectorización. Esto signica que
se pueden realizar operaciones entre variables que contienen miles o millones de valores como si se
estuvieran operando variables sencillas. Los resultados en R son muy similares a los obtenidos en Excel,
aunque se debe entender que por tratarse de números aleatorios, no van a ser nunca exáctamente iguales.
Aquí, el porcentaje de rechazos con la situación actual es de 13.19 % y el de reprocesos es de 13.76. Para
el escenario futuro con el cambio de máquina, solo es necesario cambiar los valores de las desviaciones y
volver a calcular la función. Nuevamente se obtienen valores similares a los de Excel, con un porcentaje
de rechazos de 1.36 % y de reprocesos de 1.38 %.
En el caso del cálculo con R/RStudio, se agregó un cálculo simplicado de índice de capacidad del
proceso (Cp), que compara la amplitud de las especicaciones, que en este caso son 4 milésimas, con la
amplitud del intervalo de 6 desviaciones estándar abajo y 6 desviaciones estándar arriba de la media,
lo que equivale a 2*6*σ = 12σ . En el caso de la situación actual se tiene un Cp aproximado de 0.184
y para la situación después del cambio de tecnología se tiene un Cp aproximado de 0.372 lo que indica
que el proceso está lejos de cumplir con este nivel de calidad (6σ) aún después de la inversión en nueva
tecnología.
En ambos casos, tanto la situación actual como la futura, se ha asumido que los pares (cilindro y pin)
se obtienen aleatoriamente del proceso respectivo de producción de cada una de las piezas y se forman las
parejas de esta forma aleatoria. Esto reeja lo que sería una situación real. Una idea que puede surgir
en esta etapa de Mejora (Improve) y que puede producir resultados signicativamente mejores sería
cambiar el proceso para que, en lugar de formar las parejas cilindro/pin en forma aleatoria, se hiciera
un proceso de clasicación de las piezas para que se pudieran combinar aquellas piezas que tienen un
mayor diámetro interno del cilindro con los pines que, a su vez, también tienen un mayor diámetro
externo, reduciendo por consiguiente las diferencias y a su vez, reduciendo los reprocesos y los rechazos.
Esto puede simularse fácilmente en R haciendo un ordenamiento de los vectores de diámetros generados
aleatoriamente previo a su emparejamiento.
CAPÍTULO 6. IMPROVE (MEJORAR) 63

Figura 6.5: Simulación Monte Carlo en R

Figura 6.6: Resultados de la simulación con ordenamiento previo de las piezas


CAPÍTULO 6. IMPROVE (MEJORAR) 64

Actividad Distribución Parámetros (en min)

Revisión Triangular min = 30, moda = 45, max = 60


Aprobación Normal media = 90, desv. std. = 25
Digitación Exponencial media = 15
Contactar Exponencial media = 120

Cuadro 6.2: Distribuciónes de tiempos para el proceso de hipotecas

La gura 6.6 muestra los resultados de la simulación con un ordenamiento de las piezas. Puede
observarse que existe una mejora signicativa incluso en la situación actual con la tecnología antigua,
ya que solo introduciendo este cambio, se reduce el porcentaje de rechazos a 0.01 % y los reprocesos a
0.02 %. Esto pondría el proceso a un nivel de capacidad (Cp) de 0.647 que equivale a un nivel de calidad
cercano a los 3.88 Sigma sin necesidad de adquirir la nueva tecnología y si se adquiere la maquinaria,
el porcentaje de rechazos y de reprocesos en las 10000 simulaciones es de 0, con un Cp de 1.31 que
signica que el nivel de calidad del proceso estaría por arriba de los 6 Sigma, menos de 3.4 partes por
millón de defectuosos, por lo que en los 10000 casos simulados ninguna pieza tendría que ser rechazada
o reprocesada, como se comprueba en la simulación.
El ejemplo anterior muestra la forma en que la simulación de Monte Carlo puede ayudar a analizar
y evaluar mejoras en los procesos fácil y rápidamente, proporcionando la exibilidad suciente para
evaluar diferentes escenarios y realizar un análisis estadístico de los resultados de cada uno de ellos.

Simulación de Procesos
Como se mencionó en la sección anterior, la simulación puede ser estática o dinámica, dependiendo
si el tiempo es un factor de interés. En el caso de procesos, sean de negocio, transaccionales o técnicos,
generalmente el tiempo sí se considera un factor de suma importancia por lo que se utiliza la simulación
discreta para estudiar el proceso y evaluar el impacto de cambios o mejoras sin necesidad de realizar
dichos cambios en el mundo real, logrando signicativos ahorros de tiempo y dinero.
La base de la simulación discreta es un modelo de proceso, el cual se parametriza de acuerdo a datos
estadísticos de desempeño de cada una de las etapas del proceso. Una vez modelado y parametrizado
el proceso, se procede a la simulación del mismo y al posterior análisis de los resultados obtenidos
para poder identicar las oportunidades de mejora, las cuales se deben implementar en el modelo y
nuevamente simular para evaluar los efectos de los cambios.
Para mostrar la forma en que la Simulación Discreta de Procesos puede utilizarse en la etapa de
Mejora de un proyecto de LSS, se recurrirá nuevamente a un ejemplo simple pero muy ilustrativo del
uso de esta técnica, esta vez, de un proceso transaccional en lugar de uno de manufactura. Supóngase
que se tiene un proceso para analizar y aprobar solicitudes de préstamos hipotecarios en una entidad
nanciera. Este proceso se muestra en la gura 6.7.
El proceso consta de 3 pasos secuenciales, el primero es una revisión, luego la aprobación y nalmente
el ingreso de datos o digitación en el sistema de información. Existe un paso adicional para aquellos
expedientes que no se encuentren completos y que consiste en contactar al cliente para completar la
información faltante. Los expedientes incompletos para los cuales no se logre contactar al cliente y los
expedientes que son rechazados, salen inmediatamente del proceso. Cada paso del proceso es realizado
por un recurso, por lo que se cuenta con 4 personas, un ocinista que revisa los expedientes, un analista
quién decide si se aprueban, un digitador que ingresa los datos al sistema y un ocial de servicio al
cliente quién contacta a aquellos clientes a quienes les haga falta algo en el expediente. La llegada de
solicitudes al proceso ocurre de acuerdo a una distribución exponencial con una media de 2 horas (120
min). Cada uno de los pasos tiene un tiempo de duración que se puede ajustar a una distribución de
probabilidades especíca, según se muestra en la tabla 6.2.
Con la descripción y los datos del proceso detallados en el párrafo anterior, se procede a desarrollar
el modelo para realizar la simulación de mismo. Se procede primero con Bizagi pero mas adelante se
realizará en Jaamsim para mostrar que ambos arrojan resultados similares. Para obtener resultados
CAPÍTULO 6. IMPROVE (MEJORAR) 65

Figura 6.7: Proceso de aprobación de hipotéca

signicativos, el proceso se simula durante 20 días (480 horas) en forma consecutiva. Aunque esto no
necesariamente reeja la forma como el proceso opera ya que no considera los horarios hábiles y nes de
semana, permite que el sistema funcione durante un tiempo sucientemente largo para que se alcance un
estado estable y así poder realizar mejores estimaciones de las principales características de operación
del proceso. En este ejemplo, el objetivo que se busca es mejorar el proceso desde la perspectiva de Lean,
es decir, se desea mejorar la eciencia en el uso de recursos y reducir los tiempos de ciclo del proceso.
La gura 6.8 muestra el proceso modelado en Bizagi y algunos de los resultados obtenidos. Como ya se
mencionó, Bizagi permite un modelado simple y rápido de procesos y aunque es limitado en la cantidad
de información que provee, en este caso se puede obtener información muy util sobre el proceso. Lo
primero que hay que considerar es la utilización de los recursos. Para la situación actual, se observa que
existen variaciones en la utilización para los distintos roles, ya que en el caso del digitador y el ocial
de servicio al cliente, su utilización ronda el 10 %, lo cual indica una subutilización, sin embargo para el
analista, su utilización llega a mas de un 75 % lo que indica una posible sobreutilización de este recurso.
Los otros indicadores que se consideran son los tiempos de ciclo, para lo cual se toma el mínimo, es
decir, la transacción que tomó menos tiempo para atravesar el proceso completo, el máximo y el tiempo
promedio. En este caso estos valores son de 1 hr 15 min, 19 hr 47 min y 5 hr 30 min. Es decir que en
promedio, una transacción toma 5.5 horas para ser procesada pero algunas pueden llegar a tomar casi
20 horas.
Basado en los resultados presentados, es evidente que el proceso tiene varias oportunidades de ser
mejorado, especialmente para reducir el tiempo de ciclo, ya que esto impacta directamente en la calidad
de servicio a los clientes del proceso. Tomando como base la teoría de restricciones, es evidente que
el recurso limitante, o sea, el cuello de botella de este proceso es el Analista. Una solución trivial
al problema sería incrementar la capacidad para esta etapa del proceso, incrementando el recurso,
dígase, agregando otro analista. Esto seguramente mejoraría el tiempo de ciclo y también reduciría la
utilización de los analistas, pero incrementaría el costo del proceso y no resolvería el problema de la
subutilización de otros recursos. Una propuesta de mejora que va un poco mas allá y ataca ambos
problemas, la sobreutilización de un recurso y la subutilización del otro, es aplicar un concepto muy
común en el ámbito de la Administración de Operaciones y que se llama pooling, es decir, combinar
diversas actividades en un mismo pool de recursos para nivelar la carga de trabajo y poder hacer una
distribución más uniforme. Para demostrar esto, se puede pensar en combinar el rol del analista con el
de digitador, es decir, que ambos roles puedan realizar ambas tareas. Esto puede hacerse fácilmente en
Bizagi y luego volver a simular el proceso. Los resultados de la simulación de ambos escenarios, el actual
y el propuesto, pueden observarse en la tabla 6.3. En resumen, se observa que mejora la utilización, tanto
para el analista como para el digitador, el tiempo de ciclo promedio se reduce en mas de dos horas y el
tiempo máximo también se reduce a casi la mitad. Hay que hacer la salvedad que en el caso de Bizagi, el
tiempo promedio incluye a todas las transacciones que entraron al proceso y que salieron por cualquiera
de las formas posibles, ya sea que fueran aprobadas, rechazadas o descartadas por incompletas.
CAPÍTULO 6. IMPROVE (MEJORAR) 66

Figura 6.8: Modelación y simulación del proceso en Bizagi


CAPÍTULO 6. IMPROVE (MEJORAR) 67

Figura 6.9: Modelación y simulación del proceso en Jaamsim


CAPÍTULO 6. IMPROVE (MEJORAR) 68

Bizagi Jaamsim
Característica de Operación Situación Actual Mejora propuesta Situación Actual Mejora propuesta
% utilización Ocinista 38.23 38.23 40.86 40.86
% utilización Analista 76.72 53.53 80.91 46.16
% utilización Digitador 9.62 32.95 11.41 46.16
% utilización Ocial 11.61 11.61 17.45 17.45
Tiempo de ciclo mínimo 1 h 14 min 1 h 10 min 1 h 39 min * 1 h 6 min *
Tiempo de ciclo promedio 5 h 30 min 3 h 5 min 5 h 54 min * 3 h 2 min *
Tiempo de ciclo máximo 19 h 47 min 10 h 2 min 20 h 25 min * 16 h 40 min *

Cuadro 6.3: Resultados de la simulación

Como ya se mencionó, Jaamsim también puede ser utilizado para simular este proceso de una forma
mas detallada y completa, aunque el proceso de modelado pueda parecer un poco mas complejo. La gura
6.9 muestra el modelo del proceso, con los diferentes componentes del mismo que incluyen colas para cada
actividad y recursos, así como las diferentes distribuciones de los tiempos de llegada y procesamiento;
también se muestran algunos extractos del informe de resultados de la simulación proporcionado por
Jaamsim. El archivo conteniendo el modelo del proceso, tanto para la situación actual como para la
situación propuesta, puede obtenerse de la carpeta compartida para estas notas. Al igual que con Bizagi,
se simularon en Jaamsim ambos escenarios durante 480 horas o 20 días y los resultados de la simulación
de ambos escenarios puede verse en la tabla 6.3. Jaamsim permite generar información mucho más
completa y detallada que la que se obtiene por medio de Bizagi. Como se observa, los porcentajes de
utilización de los recursos son similares a los obtenidos en Bizagi. Los tiempos de ciclo, mínimo, máximo
y promedio son también similares, aunque en este caso hay que hacer la aclaración que, a diferencia
de Bizagi, se trata del tiempo de ciclo únicamente para las solicitudes aprobadas, es decir, aquellas
que pasaron por todo el proceso, ya que Jaamsim permite calcular estadísticas diferenciadas para cada
diferente ruta que sigan las transacciones dentro del proceso. La denición y asignación de recursos es
un poco diferente en Jaamsim respecto a la forma que se hace en Bizagi, es por eso que en el caso del
Analista y Digitador, lo que se hizo fue denir un nuevo recurso llamado AnalistaDigitador que puede
ser utilizado en ambas actividades, es por eso que la utilización es exáctamente la misma para ambos
recursos en el escenario mejorado, mientras que en Bizagi eran diferentes pero al promediar ambas se
obtienen valores muy similares a Jaamsim.
Es evidente que el proceso todavía es suceptible de otras mejoras que quizá ayuden a mejorar la
utilización del ocial de servicio al cliente, que todavía es bastante baja y quizá se pueda trabajar en
reducir los tiempos de las actividades para reducir el tiempo de ciclo total del proceso, pero con esto
se pudo demostrar como el uso de la simulación de procesos puede ayudar enormemente a evaluar el
impacto de cambios de una manera simple y rápida, sin tener que experimentar con el proceso real lo
cual sería riesgoso, caro y complejo.

Diseño de Experimentos
Capítulo 7

CONTROL (Controlar)

Diagrama de Comportamiento
Grácos de Control
Documentación de Procesos

69
Bibliografía
[1] Emilio L. Cano, Javier M. Moguerza, and Mariano Prieto Corcoba. Quality Control with R. Springer
International Publishing, 2015.

[2] Emilio L. Cano, Javier M. Moguerza, and Andres Redchuk. Six Sigma with R. Springer New York,
2012.

[3] James Evans and William M. Lindsay. Administracion y Control de la Calidad. Cengage Learning
Editores S.A. de C.V., 2008.

[4] Humberto Gutià © rrez. Control estadÃstico de la Calidad y Seis Sigma (Spanish Edition). McGraw-
Hill Interamericana Editores S.A. de C.V., 2009.

70
Índice alfabético
A Measure, 9
Aceptación, 29 Mental, 24
Ana, 30 MSA, 29
Analize, 10 Muda, 11
Argo, 19 Multivariada, 48

B P
BÁSICOS, 5 Pareto, 23
Bill Smith, 8 PHVA, 9
Bizagi, 17 Proceso, 26
Procesos, 29, 48, 50, 64, 69
C
Carlo, 59 Q
Causa Raíz, 10 qcc, 14
Comportamiento, 69 qualityTools, 15
Cont, 69
Control, 10, 69 R
CTQ, 29 RStudio, 13

D S
Datos, 32 Sigma, 8
Def, 23 SixSigma, 14
Dene, 9
T
E Taiichi Ohno, 11
Efecto, 30
Experimentos, 68 V
Varianza, 44
H
HERRAMIENTAS, 21 X
Hipótesis, 40 Xmind, 16

I
Imp, 59
Improve, 10
Interrelaciones, 32
INTRODUCCIÓN, 6

J
Jaamsim, 19

L
Lean, 10
Libre, 12

M
Mea, 29

71

También podría gustarte