Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ECONOMIA DE CONTROL –
CONTRO DE CALIDAD
LA CALIDAD Y SU EVOLUCIÓN
La tabla siguiente permite visualizar de manera resumida la evolución histórica del concepto
de control de calidad
Técnicas de control de
calidad por inspección y Satisfacción de los estándares
CONTROL DE
métodos estadísticos, que y Condiciones Técnicas del
CALIDAD
permiten identificar los Producto
productos defectuosos.
Sistemas y procedimientos Satisfacer al cliente
ASEGURAMIENTOD en el interior de la Prevenir Errores
E LA CALIDAD organización para evitar Reducción de costos
productos defectuosos 2
Generar competitividad
Teoría de la administración Satisfacer al cliente externo e
empresarial centrada en la interno
CALIDAD TOTAL Ser altamente competitivo
permanente satisfacción de
las expectativas del cliente Mejora Continua
Fuente: Revista Universidad de La Salle; Apuntes propios
DEFINICIÓN DE LA CALIDAD
Las empresas tienen diferentes objetivos estratégicos como son la búsqueda del máximo
beneficio, el incremento de cuota de mercado, la mejora de la productividad o el aumento
del éxito competitivo.
Estrategia Empresarial
Estrategias de la Calidad
Los objetivos que animan a una compañía a buscar una mejor calidad están agrupados en
tres categorías básicas:
Estandarizar los productos y/o servicios ofrecidos a los clientes, este objetivo implica que
la compañía este preocupada por ofrecer a los consumidores bienes con las características
LIC. JOHNNY EDGAR MERCADO ROSSELL
UNIVERSIDAD TECNICA DE ORURO
FACULTAD DE CIENCIAS ECONOMICAS Y FINANCIERAS
INGENIERIA COMERCIAL
homogéneas estables o invariables, se busca que el producto o servicio sea el mismo, que
no exista diferencia alguna entre lote y lote, entre turno y turno, o entre semana y semana
con ello se trata de poner en manos del consumidor un bien estandarizado.
Mejorar los productos y servicios ofrecidos a los clientes, significa que la compañía se 3
preocupa por ofrecer a los consumidores versiones corregidas, mejoradas o perfeccionadas
de los bienes originalmente proporcionados a consecuencia de una mejora continua.
Innovar los productos y servicios ofrecidos a los clientes, supone que la compañía se halla
concentrada en ofrecer a los consumidores bienes sustancialmente diferentes de los
suministrados con anterioridad ya que se busca que el producto o servicio ofrecido sea
algo enteramente nuevo y no una simple mejora.
ENFOQUE OCCIDENTAL
En el ámbito de la gestión de calidad en Estados Unidos, siendo el pionero en este tema,
logro formar en sus universidades varios exponentes importantes en el campo de la calidad.
Entre estos se encuentran William Edwards Deming, Joseph Moses Juran y Philip Bayard
Crosby.
Con la ayuda de Deming, las empresas japonesas logran su apogeo en la industria mundial
sobresaliendo por la calidad de sus productos, fama que guardan hasta la actualidad.
Deming señala que la calidad se determina por la interrelación del producto, el usuario y el
servicio que da la compañía durante el uso del producto por parte del usuario. Además
propone un sistema para los productos conocido como el ciclo Deming PDCA.
Al igual que Deming achaca la mala calidad a la mala dirección y además señala que todo
programa de calidad que se implante en una empresa debe tener en cuenta la educación,
programas de mejora y liderazgo comprometido a la mejora continua.
Trilogía de la Calidad
Este autor al igual que Juran y Deming, tiene sus pasos para el mejoramiento de la calidad
5
CERO DEFECTOS
Esto dio bases a las empresas y a los autores de dicho país para formular su visión sobre la
calidad, aportando estos también herramientas practicas reconocidas a nivel mundial. A
continuación, un exponente en el tema de la calidad en Japón: Kaoru Ishikawa. Y el Instituto
Kaizen,
KAIZEN
El significado de esta palabra es:
KAI = CAMBIO
KAIZEN entonces es una cultura y una filosofía de Mejora Continua. En un sentido común,
es disminuir el costo aprovechando la mejora continua.
KAORU ISHIKAWA
Ingeniero japonés que creó el concepto de calidad total vigente en la actualidad, el cual hace
énfasis en que los productos y servicios deben ser perfectos. Ishikawa tiene como base la
filosofía Kaizen y distinguió dos partes básicas para la mejora de los procesos, los cuales
serían los aspectos del ciclo de Deming y el desarrollo de herramientas para el análisis causal
de problemas.
LIC. JOHNNY EDGAR MERCADO ROSSELL
UNIVERSIDAD TECNICA DE ORURO
FACULTAD DE CIENCIAS ECONOMICAS Y FINANCIERAS
INGENIERIA COMERCIAL
Las diferencias entre las actividades del enfoque Japonés y el mundo occidental se deben a
las características socioculturales de cada país. Las actividades de calidad del mundo
occidental habían estado orientadas al cumplimiento de normativas y la mejora de la
productividad, sin embargo el enfoque japonés estaba enfocado en el cliente. El QC japonés
también está fuertemente basado en la educación para todos los niveles de la organización,
a largo plazo, dentro de la empresa, y continúa
CONTROL DE CALIDAD
DEFINICIÓN
Es un conjunto de técnicas y actividades, de carácter operativo, utilizadas para verificar los
requisitos relativos a la calidad del producto o servicio.
ASEGURAMIENTO DE LA CALIDAD
COSTOS DE CALIDAD
COSTOS DE EVALUACIÓN 7
COSTOS DE NO CALIDAD
.
Los costos de no calidad se clasifican en dos categorías:
FALLA INTERNA: todos los costos en los que incurre la empresa por no cumplir con las
especificaciones de calidad de los productos y/o servicios, antes de que ellos estén en
manos del cliente.
FALLA EXTERNA: todos los costos en los que incurre la empresa por no cumplir con
las especificaciones de calidad de los productos y/o servicios, una vez están en manos del
cliente.
BIBLIOGRAFÍA
-ControlTotaldelaCalidad_el-FrancoAlexCevallos.pdf 8
-https://www.gestionpolis.com/5s-seiri-seiton-seiso-seiketsu-y-shitsuke-base-de-la-mejora-
continua/
-http://www.gestiondeoperaciones.net/gestion-de-calidad/clasificacion-de-los-costos-de-la-
calidad/
-https://www.gestiopolis.com/que-son-circulos-de-calidad/
-http://www.euskalit.net/pdf/calidad_total.pdf
TEMA 2
TEORIAS DE CALIDAD
KAIZEN 9
Las cinco “S” de Kaizen:
Seiri (Disposición Metódica): Desechar lo que no se necesita, consiste en retirar del área
de trabajo todos aquellos elementos que no son necesarios para realizar la labor ya sea
en áreas de producción, o en áreas de administración.
Seiton (Orden): Un lugar para cada cosa y cada cosa en un lugar, El orden empresarial,
la organización de los elementos necesarios de modo que resulte de fácil uso y acceso,
los cuales deberán estar, cada uno etiquetados para que se encuentre , retiren y devuelven
a su posición.
Shitsuke (Disciplina): Crear hábitos basados en las 4 “s” anteriores, significa evitar que
se rompan el procedimiento ya establecido. Solo si se implanta la disciplina y el
cumplimiento de las normas y procedimientos ya adoptados se podrá disfrutar de los
beneficios que ellos se brindan..
1. MEJORA CONTINUA
LIC. JOHNNY EDGAR MERCADO ROSSELL
UNIVERSIDAD TECNICA DE ORURO
FACULTAD DE CIENCIAS ECONOMICAS Y FINANCIERAS
INGENIERIA COMERCIAL
Se entiende por mejora continua a todos aquellos actos dirigidos hacia la mejora constante
de los estándares actual e indica que todo proceso de operación además de productos físico
10
genera información suficiente para mejorarla además afirma que cuando un estándar esta en
vigor más de 6 meses sin ser modificado, ello se ha debido a que no es seguido por nadie
dentro de la propia organización.
-Plan
-Do
-Check
-Action
Es decir planificar la mejora implementarla verificar sus efectos y actuar en función de los
resultados de dicha verificación.
El ciclo PDCA fue creado en los años 20 por Walter Andrew Shewhart un físico
estadounidense conocido por ser pionero en el control de calidad estadístico.
Esta idea mejorada y aplicada fue apropiada por Imai y Ishikawa y lo llamaron en principio
el volante de Demming también conocido como ciclo PDCA, ese ciclo es útil para
actividades de la planificación estratégica de una empresa o la mejora de procesos.
El nombre del Ciclo PDCA (o Ciclo PHVA) viene de las siglas Planificar, Hacer, Verificar
y Actuar. Esta metodología describe los cuatro pasos esenciales que se deben llevar a cabo
11
de forma sistemática para lograr la mejora continua.
En primer lugar debe planificarse (PLAN) la mejora esta etapa comprende entre otras
actividades identificar el proceso que se quiere mejorar , recopilar datos para profundizar en
el conocimiento del proceso , definir objetivos que permitan saber en un momento dado el
nivel de cumplimiento de sus objetivos, detallar las especificaciones de los resultados
esperados, definir los procesos necesarios para conseguir estos objetivos y definir los
recursos o medios para alcanzar los objetivos propuestos.
En segundo lugar aparece ejecución (DO) de las tareas necesarias para incrementar la
mejora, las actividades de esta etapa podemos resumirlas en ejecutar los procesos definidos
en el paso anterior, educar y entrenar al personal responsable de la implementación de la
mejora documentar las acciones realizadas.
En tercer lugar, tenemos la etapa de evaluación (CHECK) esta fase es de mucha importancia
porque debe verificar los resultados de la implementación de la mejora y comparar con los
objetivos iniciales de esta manera evaluar si se ha producido la mejora esperada
Una vez completado el ciclo es importante seguir dando vueltas al volante PDCA, solo la
perseverancia de esta aplicación puede una empresa mejorar realmente todos los procesos y
en consecuencia la calidad de sus productos o servicios.
CÍRCULOS DE CALIDAD
- Los Círculos de Calidad son grupos de trabajadores con un líder o jefe de equipo que cuenta
con el apoyo de la organización de la empresa, cuya misión es transmitir a la dirección
propuestas de mejora de los métodos y sistemas de trabajo.
- Los Círculos de Calidad se reúnen para estudiar un problema de trabajo o una posible mejora
del producto, pero no basta con identificar los fallos o los aspectos a mejorar. La misión del
Círculo es analizar, buscar y encontrar soluciones, y proponer la más adecuada a la Dirección.
- Todas las propuestas de los Círculos de Calidad presentadas a la Dirección son estudiadas
cuidadosamente. Si son aceptadas serán puestas en práctica, y se reconocerá el mérito del
Círculo que las ha presentado.
Los pilares sobre los que se sustentan los Círculos de Calidad son:
1. El reconocimiento a todos los niveles de que nadie conoce mejor una tarea, un trabajo o
un proceso que aquel que lo realiza cotidianamente.
LIC. JOHNNY EDGAR MERCADO ROSSELL
UNIVERSIDAD TECNICA DE ORURO
FACULTAD DE CIENCIAS ECONOMICAS Y FINANCIERAS
INGENIERIA COMERCIAL
b. Trabajo en grupo. El espíritu de equipo, una vez superada la fase inicial de formación,
favorece una sana competencia entre los distintos Círculos, y ésta se traduce en una
superación constante tanto en las ideas como en las soluciones aportadas.
e. Méritos colectivos y nunca individuales. Todas las ideas y mejoras que surjan como
fruto del trabajo de los Círculos son patrimonio del equipo, y no de un individuo aislado,
por brillante que sea. los directivos deben ser los primeros en promover esta idea,
premiando los éxitos a nivel colectivo. Asimismo, deben evitar que alguien que se crea
más inteligente que los demás utilice al Círculo para encontrar soluciones, para luego
presentarlas como propias. Una vez implantados los Círculos, es difícil que puedan 14
coexistir con los buzones de sugerencias. Aunque una idea determinada proceda de una
persona, debe procurarse que todo el grupo participe del proyecto, a fin de soslayar el
personalismo y el lucimiento individual.
f. Grupo reducido. Los Círculos que mejor funcionan son aquellos que están compuestos
por pocos individuos (4 ó 5). De esta forma hay trabajo para todos. Si el número es muy
superior suele suceder que sólo sean unos pocos los que busquen datos, presenten
soluciones e ideas, mientras que el resto, además de no colaborar con el Círculo,
entorpezcan su trabajo y alarguen las reuniones, discutiendo ternas que se alejan de los
propósitos y objetivos del grupo.
- Los Círculos de Calidad son grupos pequeños. En ellos pueden participar desde cuatro hasta
quince miembros. Ocho es el número ideal. Se reúnen a intervalos fijos (generalmente una vez
a la semana) con un dirigente, para identificar y solucionar problemas relacionados con sus
labores cotidianas.
- Por lo regular, el jefe o supervisor es también jefe del Círculo. Este no ordena ni toma
decisiones, son los integrantes en conjunto quienes deciden.
- La participación es voluntaria, tanto para el líder como para los miembros. De ahí que la
existencia de los Círculos depende de la decisión de cada integrante.
7.4.- PROCESO
Fundamentos
16
Los fundamentos importantes en la realización de filosofía de Kaizen es Compromiso y
Disciplina a todo nivel de la organización.
La disciplina y constancia son lo que hace que kaizen se diferencia de otras metodologías y por
lo que la hace ser filosofía. El grupo de personas que realizan Kaizen luego de arreglar un
problema siguen mejorando y no paran ni se quedan esperando otro problema.
En cuanto a compromiso se debe destacar que todo nivel de organización tiene involucramiento
en el kaizen. Es muy común decir en que el kaizen es para la planta y operadores eso NO es así
el kaizen empieza de arriba hacia debajo. Este inicia con el presidente mejorando en su nivel,
los gerentes, jefes y supervisores se involucran en los equipos para ir mejorando día a día. Aquí
estamos hablando que puede haber equipos en finanzas, en Servicio al Cliente, Ventas, Cadena
de Suministros etc. …
KAIZEN IMPLEMENTACIÓN
1. Selección del Tema:
El tema a seleccionar en kaizen puede ser escogido por la presidencia o la gerencia siempre y
cuando esté acorde a los objetivos de empresa.
Posibles temas pueden abarcar áreas como:
• Seguridad. (Reducción de accidentes) 17
• Calidad. (Requerimientos del cliente)
• Productividad. (mejora de tiempos)
• Medio Ambiente y otros. (uso de desechos)
Por ejemplo, si el objetivo de la empresa es aumentar la producción se pueden hacer diferentes
tipos de kaizen hacia ese mismo objetivo como aumento capacidad en máquinas, reducción de
reproceso, mejora de métodos de
trabajo y otros que pueden ser usados en las áreas determinadas como cuellos de botella de cada
departamento.
2. Equipo de trabajo:
El equipo debe ser siempre que se pueda multidisciplinario ósea que personas de diferente área
se unan para formar un equipo. Esto con el propósito de tener personas que pueden aportar
mucho por su conocimiento y experiencia en su área de trabajo.
Es recomendable que cada grupo tenga un líder el cual sea el responsable de coordinar las
reuniones e informe con el grupo el progreso a la gerencia.
Los integrantes son escogidos por el Líder y este debe asegurar que sean los más capacitados en
referencia al problema a atacar. No vamos a poner alguien de un departamento que no tenga
nada que ver con el problema que estamos lidiando.
Ejemplo:
1. Integrante#1 Jefe del departamento *Líder)
2. Integrante#2 Mantenimiento
3. Integrante#3 Ingeniero Industrial
4. Integrante#4 Seguridad
5. Integrante#5 Ingeniero de Proceso
Ejemplo:
Crear una hoja de registro para obtener información de las causas analizadas en diagrama
de Ishikawa. Esta información puede ser recolectada por computadora o por el trabajador
del área.
Al tener la hoja de registro esta información debe ser tabulada y graficada para lograr obtener
tendencias por máquina, por turno y por persona de modo que vayamos filtrando las causa y de
este modo atacar causas críticas y no todas.
Con este gráfico sabemos que las más importantes son fallas mecánicas y tiempo de encender
la máquina por lo tanto debemos concentrar a obtener más datos acerca de estas dos causas y
obtener Paretos de cada una para seguir desglosando la información hasta llegar a lo más
detallado para implementar luego la mejora.
4. Gembutsu Gemba:
Gembutsu: significa el producto el cual en este caso se refiere al producto que estamos
analizando por ejemplo máquina, equipo, material, tiempos de manufactura.
Gemba: significa el área donde ocurre o el área de trabajo don analizaremos el problema.
Comprendiendo el significado de ambas palabras esta fase nos invita a ir al área donde se
produce el problema y verificar los datos obtenidos anteriormente. Es posible que se conozca
más del problema y se eliminen o aumenten más variables o causas antes mencionadas.
Esta actividad la realiza el equipo y se podría hacer más de una observación en el área para ir
analizando el problema con más detalle. Si amerita es bueno llevar un formato para establecer
lo acontecido durante la observación. Puedes leer más en nuestro artículo de Gemba Leer más…
¨IMPORTANTE SON LOS COMENTARIOS DE LAS PERSONAS QUE TRABAJAN EN
ESA AREA·
Además de Gemba para analizar el problema, también podemos encontrar una herramienta muy
útil derivada del Gemba llamada Gemba Walk, la cual nos permite darle seguimiento al
problema y mejorar el área para que el problema sea más evidente y podamos analizarlo mejor.
Leer más...
5. Plan de Contramedidas
Al haber hecho los tres pasos anteriores la cantidad de variables o posibles causas se han
reducido y por lo tanto nos queda tomar contramedidas para las que han quedado y son críticas
para la mejora de nuestro proceso. Estas contramedidas se registrarán en un plan en el cual se
deberá tener: 19
Principio de Pareto
Fue en 1941 que Juran descubrió la obra de Vilfredo Pareto. Juran amplió la aplicación del 21
principio de Pareto a cuestiones de calidad (por ejemplo, el 80% de un problema es causado por
el 20% de las causas). Esto también se conoce como "los pocos vitales y muchos triviales".
Juran en los últimos años ha preferido "los pocos vitales y los muchos útiles" para indicar que
el 80% restante de las causas no deben ser totalmente ignoradas.
Trilogía de Juran
• Mantener el impulso
Phillip B. Crosby
Philip Bayard "Phil" Crosby, (* Wheeling, 1926 Winter Park, 2001) fue un empresario
norteamericano, autor que contribuyó a la teoría gerencial y a las prácticas de la gestión de la
calidad.
22
6.- Acción correctiva: se emprenderán medidas correctoras sobre posibles desviaciones. 7.-
Planificación cero defectos: se definirá un programa de actuación con el objetivo de prevenir
errores en lo sucesivo.
8.- Capacitación del supervisor: la dirección recibirá preparación sobre cómo elaborar y ejecutar
el programa de mejora.
9.- Día de cero defectos: se considera la fecha en que la organización experimenta un cambio
real en su funcionamiento. 23
10.- Establecer las metas: se fijan los objetivos para reducir errores.
11.- Eliminación de la causa error: se elimina lo que impida el cumplimiento del programa de
actuación error cero.
12.- Reconocimiento: se determinarán recompensas para aquellos que cumplan las metas
establecidas.
13.- Consejos de calidad: se pretende unir a todos los trabajadores mediante la comunicación.
14.- Empezar de nuevo: la mejora de la calidad es u n ciclo continuo que no termina nunca.
24
Filosofías Orientales
Genichi Taguchi
Nació en Japón el 1 de enero de 1924, graduándose en la Escuela Técnica de la Universidad
Kiryu en la carrera de ingeniería textil, y más tarde recibió el Doctorado en la Universidad
Kyushu en 1962.
La filosofía de la calidad de Taguchi
1. Un aspecto importante de la calidad de un producto manufacturado es la pérdida total
generada por ese producto a la sociedad.
2. En una economía competitiva, el mejoramiento continuo de la calidad y la reducción de los
costes son imprescindibles para subsistir en la industria.
3. Un programa de mejoramiento continuo de la calidad incluye una incesante reducción en la
variación de las características de performance del producto con respecto a sus valores objetivo.
4. La pérdida del consumidor originada en una variación de la performance del producto es casi
siempre proporcional al cuadrado de la desviación de las características de
performance con respecto a su valor objetivo. Por eso, la medida de la calidad se reduce
rápidamente con una gran desviación del objetivo.
5. La calidad y el coste final de un producto manufacturado están determinados en gran medida
por el diseño industrial del producto y su proceso de fabricación.
6. Una variación de la performance se puede reducir aprovechando los efectos no
lineales/conjuntos de los parámetros del producto (o proceso) sobre las características de
performance.
7. Los experimentos estadísticamente planificados se pueden utilizar para determinar los
parámetros del producto (o proceso) que reducen la variación de la performance.
Shigeo Shingo
Durante la década de los 40´s, Shingo estudió y aplicó el Control Estadístico de la Calidad. En
1961, comenzó a introducir instrumentos mecánicos sencillos en los procesos de ensamblaje,
con el objetivo de prevenir que las partes sean ensambladas erróneamente, señales de alerta
cuando un operario olvidaba una de las partes (Poka Yoke).
El SMED nació en 1950 cuando dirigía un estudio de mejora de eficacia para Toyo Kogyo
(Mazda). Esta pretendía eliminar los grandes cuellos de botella provocadas por las prensas de 25
moldeado de carrocerías. Todo lo que se h izo fue establecer un procedimiento de preparación
externa: verificar que los pernos necesarios estaban listos para la siguiente preparación. Esto
elevó la eficacia de las prensas alrededor del 50% y el cuello de botella desapreció.
Posteriormente desarrollo el sistema y lo aplicó al sistema de Producción de Toyota, el cual se
convirtió en el método más efectivo para la producción JIT.
En 1967 introdujo inspección en la fuente y haciendo más sofisticados los Poka Yoke,
reduciendo la utilidad del control estadístico de la calidad, ya que no se daban errores.
En 1977, después de una visita a una planta de Matsushita, se consiguió un mes entero sin
defectos en una línea de ensamblaje. Shingo llegó, definitivamente, a la conclusión de que el
Control Estadístico de la Calidad no era necesario para conseguir cero defectos, sino que bastaba
la aplicación de Poka Yoke e Inspección en la Fuente, siendo esto la base del Cero Control de
Calidad.
Dijo que el éxito japonés se d ebía a la lealtad de los empleados y a las buenas relaciones ente
personal y la dirección, basadas en el empleo de por vida.
Kaoru Ishikawa
Nacido en Japón, en 1915, graduado de Ingeniero Químico en la Universidad de Tokio en 1939,
Ishikawa es ampliamente reconocido en su país por sus contribuciones al desarrollo después de
la posguerra.
Inicialmente, todas tienen el objetivo de calidad como forma de subsistencia de las compañías,
debido a los beneficios que esta trae a las mismas. Podemos también destacar la importancia
que dan los autores al uso de la estadística en el control, prevención y mejoramiento de la 27
calidad, como también a la búsqueda de un mejoramiento continuo sin importar el enfoque que
tuvo el autor en crear sus métodos o fases recomendadas para la implantación de sistemas de
calidad.
Como diferencia principal en el enfoque americano y japonés, es que el japonés da más énfasis
en el valor agregado que puede dar todo colaborador al aportar sus ideas y puntos de vista para
mejorar la calidad del producto. Cosa que la perspectiva americana, aunque busca el
involucramiento del personal en el tema de conciencia de la calidad, no da un enfoque a apoyar
sugerencias de los mismos ya que establecen que el control total de la calidad o de la
implantación del mismo está en los directivos.
También como diferencia importante es que los autores japoneses crean metodologías cuya
ejecución no solo implica a el ejercicio en la compañía, sino que pueden ser percibidas como
formas de vida en la búsqueda de dar lo mejor de sí, siendo un factor que favorece a la cultura
no solo empresarial sino social de Japón, lo cual facilita su el involucramiento colectivo por un
fin en común que sería el hacer las cosas de la mejor manera posible.
En el ámbito de estas diferencias es importante destacar el estudio hecho por el japonés
William Ouchi, quien comparo empresas japonesas y americanas con el fin de obtener una
metodología que tomara lo mejor de cada uno de los enfoques. Dicho autor creo lo que llamo
la teoría Z la cual es la sinergia resultante de ambos enfoques. Ouchi determino que las
empresas deben buscar dar puestos de empleo a largo plazo, donde se den promociones lentas
con el fin de que las personas puedan dar seguimiento a los procesos de mejora continua y no
sean ascendidos a mitad de uno creando vicios en la formación de la cultura empresarial,
también sugiere que la toma de decisiones debe ser un consenso, como también que se debe
prestar atención a dar responsabilidad individual y debe de tenerse una percepción de los
individuos como parte integral de la empresa
Bibliografía
Philip C. Thomson, “Círculos de calidad, editorial’’, Editorial norma, impreso en Colombia, 1984
Hansen BL, Ghare PM. Control de Calidad. Teoría y aplicaciones 4° ed. España: Ed. Díaz de Santos, S.
A. 1990.
Enrick L. Mottley E, Ronald H, Control de Calidad y beneficio empresarial 1° ed. Madrid Ediciones
Diaz Santos 1989
Juran MJ. Manual de Calidad. Volumen I 5° ed. España: Mc GrawHill Interamericana 2001
28
TEMA 3
-Diagrama de causa-efecto
-Diagrama de Pareto
-Diagrama Bi-variante
-Estratificación
30
1. HOJA DE REGISTRO
También conocidas como hojas de control, se pueden utilizar como lista de comprobación a la
hora de recoger datos.
Las hojas de verificación se utilizan para organizar los hechos de manera que se facilite la
recopilación de un conjunto de datos útiles sobre un posible problema de calidad.
Son especialmente útiles a la hora de recoger datos de los atributos mientras se realizan
inspecciones para identificar defectos. Por ejemplo, los datos sobre frecuencias o consecuencias
de defectos recogidos en las hojas de verificación se representan a menudo utilizando diagramas
de Pareto.
2. MAPEO DE PROCESOS
El mapeo de procesos es una herramienta que representa a un diagrama que utiliza símbolos
gráficos para representar el flujo y las fases de un proceso. Está especialmente indicado al inicio
de un plan de mejora de proceso, al ayudar a comprender cómo estos se desenvuelven. Es básico
en la gestión de los procesos.
Para hacer un mapeo de procesos, se deben analizar todos los detalles de cada proceso, para
después montar un mapa que demuestre el flujo operacional y la interrelación entre los diferentes
sectores y procesos.
Teniendo los valores máximos y mínimos, podemos determinar el rango de la serie de medidas,
el rango no es más que la diferencia entre los valores máximos y mínimos.
El diagrama de Ishikawa ayuda a graficar las causas del problema que se estudia y analizarlas.
Es llamado “Espina de Pescado” por la forma en que se van colocando cada una de las causas
o razones que a entender originan un problema. Tiene la ventaja que permite visualizar de una
manera muy rápida y clara, la relación que tiene cada una de las causas con las demás razones
que inciden en el origen del problema. En algunas oportunidades son causas independientes y
en otras, existe una íntima relación entre ellas, las que pueden estar actuando en cadena.
El problema principal que se desea analizar, el cual se coloca en el extremo derecho del
diagrama. Se aconseja encerrarlo en un rectángulo para visualizarlo con facilidad.
Métodos de trabajo
Mano de obra 32
Materiales
Maquinaria
Medición
Medio ambiente
5. DIAGRAMA DE PARETO
Se reconoce que más de 80% de la problemática en una organización es por causas comunes, es
decir, se debe a problemas o situaciones que actúan de manera permanente sobre los procesos.
Pero, además, en todo proceso son pocos los problemas o situaciones vitales que contribuyen
en gran medida a la problemática global de un proceso o una empresa.
La viabilidad y utilidad general del diagrama está respaldada por el llamado principio de Pareto,
conocido como “Ley 80-20” o “Pocos vitales, muchos triviales”, en el cual se reconoce que
pocos elementos (20%) generan la mayor parte del efecto (80%), y el resto de los elementos
propician muy poco del efecto total. El nombre del principio se determinó en honor al
economista italiano Wilfredo Pareto (1843-1923).
8. DIAGRAMA BI-VARIANTE
Un diagrama de correlación muestra la relación entre dos factores cambiantes. Una relación
sólo puede ser descubierta mediante la comprensión del proceso y la experimentación
diseñada.
Una forma de comprobar si existe relación entre una característica de calidad y un factor que
puede afectarle es la construcción de diagramas Bi-variantes. Es decir, estos diagramas
representan la relación entre 2 variables que tienen relación (problema-causa).
9. LA ESTRATIFICACIÓN 33
Usted observara que después de algún tiempo las piedras, arena, lodo y agua puede separase, en
otras palabras, lo que ha sucedido es una estratificación de los materiales, este principio se utiliza
en manufacturera. Los criterios efectivos para la estratificación son:
Tipo de defecto
Causa y efecto
Localización del efecto
Material, producto, fecha de producción, grupo de trabajo, operador, individual,
proveedor, lote etc.
La estratificación no es una técnica nueva, sino que es una metodología que conviene incorporar
a cada una de las herramientas que ya hemos visto.
tratar de conseguir que el proceso sea estable, en el sentido de que miuu (𝜇)y sigma(𝜎) sean
constantes en el tiempo. Pero si estos parámetros no son constantes en el tiempo se debe disponer
de las herramientas de Re control que permitan detectar rápidamente las causas que han
producido estas modificaciones para corregirlas. Para esta situación los controles estadísticos de
proceso en línea son los mejores para rastrear y vigilar el proceso y reducir su variabilidad y
estimar sus parámetros a fin de fabricar un buen producto desde el principio 34
La media
El desvió estándar(s)
La amplitud o rango (R)
LOS GRAFICOS DE CONTROL O ATRIBUTOS
Se basan en verificar la presencia o ausencia de un atributo en especial con relación a una lista
de defectos, existen 4 tipos:
GLOSARIO
Estándares: Los estándares son construcciones culturales, efectuadas por quienes poseen
autoridad ética, técnica, teórica o científica, según el caso, de público conocimiento que nos dan
confianza en nuestro accionar, pues nos sirven de guía y referencia, y a posteriori permite
controlar lo producido para realizar sobre ello un juicio de valor.
Proceso Económico: Es el conjunto de acciones que se realizan para generar e intercambiar los
medios que hacen falta para satisfacer las necesidades de la sociedad. Esos medios pueden ser
tangibles o no.
BIBLIOGRAFIA
Gutiérrez P., Control estadístico de la calidad y seis sigma
Evans, J., Administración y control de la calidad
Carro, R., Administración de la calidad total
TEMA 4
GRAFICAS DE CONTROL
36
CONTENIDO
INTRODUCCIÓN
Actualmente, todas las empresas modernas saben que lograr un buen nivel de calidad es
fundamental para el éxito de su gestión.
La obtención de este objetivo, no solo es importante desde el punto de vista de la competencia,
37
sino también para la satisfacción de las necesidades humanas.
Para marchar al compás de este ritmo se hacen necesarios mejores instrumentos, maquinarias,
métodos, etc., y lo que es más importante, un mejor aprovechamiento de los mismos, es decir,
obtener mejor calidad con la misma cantidad de dinero. Para lograr este objetivo debemos
recurrir al control estadístico de calidad, como una de las armas más poderosas para la
realización de todas estas ideas.
Para entender el objetivo de los métodos estadísticos de control en los procesos, Podríamos
preguntarnos, ¿qué es un producto defectuoso? o más concretamente, ¿qué es un defecto?, Juran
explica lo que es un defecto haciendo un juego de palabras: " Un defecto es un defecto cuando
todos estamos de acuerdo que es un defecto", aunque la definición tradicional dice: “Un defecto
es el incumplimiento de una característica de calidad respecto de un límite especificado”. Otra
ilustre definición de lo que es un defecto, es la afirmación de Kahoru Ishikawa, quien dice que
“un defecto es lo que causa insatisfacción al cliente”. Pero a pesar de todos conceptos de
diferentes autores nos preguntamos, ¿Qué causa los productos defectuosos?, la respuesta
universal a esta pregunta es: la variación. La variación en los materiales, en las condiciones de
la máquina, en los métodos de trabajo y en las inspecciones. Estas variaciones son las causas de
los productos defectuosos. Si no existiera ninguna de esas variaciones, todos los productos
serían idénticos y no habría variaciones en la calidad, y no existiría la ocurrencia de productos
defectuosos y no defectuosos.
¿QUE ES VARIABILIDAD?
Son cambios inevitables que modifican el proceso (ya sean pequeños o casi imperceptibles) que
afectan posteriormente al producto que se produce o al servicio que se ofrece.
LIC. JOHNNY EDGAR MERCADO ROSSELL
UNIVERSIDAD TECNICA DE ORURO
FACULTAD DE CIENCIAS ECONOMICAS Y FINANCIERAS
INGENIERIA COMERCIAL
La problemática encontrada es que se acepta que hay problemas con la variación, pero no hay
interés en estudiar por qué se produce y ni cómo medir esa variabilidad.
La desviación estándar es muy importante pues es una de las formas más sencillas de controlar
la variabilidad, llámese presupuestos, ventas, productos, tiempos de atención y para todo el
nuevo conjunto de indicadores que están de moda.
38
IMPORTANCIA DE LA VARIABILIDAD: es de mucha importancia, quizá mas de la que nos
podemos imaginar, pues la variabilidad afecta al producto. La variabilidad es requerida para
modificar el proceso cuando se desea obtener resultados distintos ya sea para mejorar o corregir
un proceso que requiera ajuste.
Kaouru Ishikawa decía que el 85% de los problemas en un proceso son responsabilidad de la
gerencia, el comentario no fue bien recibido. Su afirmación se basa en que las variaciones de un
proceso generalmente se atribuyen a causas normales, según su capacidad diseñada, la cual es
responsabilidad de la gerencia. El operario actúa dentro de lo que el proceso le permite.
CAUSAS DE VARIABILIDAD
Variabilidad en un proceso
39
Así pues, la estrategia básica para la mejora de la calidad pasa por la identificación de las causas
que producen variabilidad, y por una correcta asignación de la misma a una u otra de las dos
categorías definidas ya por Shewhart (1931):
Hay dos tipos de variabilidad: la que se debe a causas comunes y la que corresponde a causas
especiales o atribuibles. Resulta fundamental distinguir de forma eficiente entre ambos tipos
de variación, para así tomar las medidas adecuadas en cada caso.
La variación por causas comunes (o por azar).-Es aquella que permanece día a día, lote a lote;
y es aportada de forma natural por las condiciones de las 6 M. Esta variación es inherente a las
actuales características del proceso y es resultado de la acumulación y combinación de diferentes
causas que son difíciles de identificar y eliminar, ya que son inherentes al sistema y la
LIC. JOHNNY EDGAR MERCADO ROSSELL
UNIVERSIDAD TECNICA DE ORURO
FACULTAD DE CIENCIAS ECONOMICAS Y FINANCIERAS
INGENIERIA COMERCIAL
Según el teorema de Chebyshev asegura que al menos el 75% de los valores caen dentro de ±
2𝜎(2 desviaciones estándar) a partir de la media 𝜇, y al menos el 89% de los valores caen dentro
de ± 3𝜎.
41
En el gráfico interpretamos el 0 como𝜇, y los números como unidades de 𝜎. Por ejemplo, 1es
𝜇+𝜎; -1 es 𝜇-𝜎; 2 es 𝜇+ 2𝜎; etc.
Zona II
𝜇 + 3𝜎 LSC
Zona I
𝜇 LC
Zona I
𝜇 − 3𝜎 LIC
Zona II
No de muestras
se trazan líneas horizontales (los valores indicados son los del sistema norteamericano distinto
al sistema ingles):
- La media µ, que determina la línea media (o línea central) del grafico indicada por LC;
- El límite superior de control, µ+3 𝜎, correspondiente a la línea superior de control LSC;
- El límite inferior de control, µ-3 𝜎, correspondiente a la línea inferior de control LIC;
42
OBJETIVOS
a) Vigilancia y control del proceso con el fin de conseguir que este sea estable evitando la
producción de defectos. Este objetivo corresponde a la filosofía “hágalo bien a la primera
“.
b) Aumento de la homogeneidad de la producción mediante la disminución de la
variabilidad del proceso
c) Evitan ajustes innecesarios que tanto daño pueden causar a la homogeneidad del
producto ,este corresponde a la filosofía “ si no esta roto no lo repares”.
d) Suministrar la información necesaria para determinar a través de la estimación
estadística los parámetros del proceso y del producto ,de esta manera comparar la
producción real obtenida con las especificaciones de calidad y determinar la capacidad
del proceso para obtener el producto diseñado.
Finalidades de los gráficos de control
Cuando un proceso está bajo control, solo actúan sobre el mismo causas aleatorias; la ocurrencia
de causa identificables llevara o conducirá a que el proceso permanezca fuera de control.
Con base en tal criterio, se plantea dos problemas en la aplicación de los gráficos de control,
atendiendo a dos distintas finalidades:
a) Comprobar si el proceso está bajo control, ósea, su estabilidad.
b) Verificar si el proceso permanece bajo control corresponde a comprobar la conformidad del
proceso de fabricación respecto a una norma preexistente.
Graficas de control
Para construir una gráfica de control, es importante distinguir el tipo de datos a graficar
pueden ser. Datos continuos, datos discretos, dicha gráfica dependerá del tipo de
datos.
X (de promedios)
R (de rangos)
S (de desviaciones estándar)
Estas formas distintas de llamarle a una gráfico de control se deben al tipo de variable
(estático) que se grafica en la gráfico: un promedio un rango, etc., por medio del cual
se trata de controlar una característica importante de un producto o proceso.
Los tres gráficos de control de variables; de la media x, del desvío- patrón s y de la amplitud R
se explican de acuerdo al sistema norteamericano (normas ASA y de la ASTM).este sistema se
basa en el intervalo 3 sigmas de modo que los límites de control son respectivamente:
Para la media 𝜇 ̅ ±3𝜎 ̅
Para la desviación estándar 𝜇 ± 3 𝜎
Para la amplitud 𝜇 ± 3𝜎
La probabilidad de que un punto caiga en la zona II es aproximadamente 0.003 ó 3 veces de
cada mil; en cuanto la probabilidad de que caiga en la zona I es 0.997 aproximadamente.
La distribución muestral de la media 𝑥̅ muestras extraídas de una población normal, con media
µ y desviación estándar σ, es también normal con 𝜇 = 𝜇 y 𝜎 ̅ = 𝜎/√𝑛
El grafico de control de las medias 𝑋 de muestras de tamaño se constituye señalándose la línea
central 𝐿𝐶 = 𝜇 = 𝜇, el límite superior de control 𝐿𝑆𝐶 = 𝜇 + 3𝜎/√𝑛 y el límite inferior del
control 𝐿𝐼𝐶 = 𝜇 − 3𝜎/√𝑛
Al hacerse 𝐴 = los valores pueden ser tabulados en función del tamaño de la muestra y de 44
√
la expresión de los límites se convierte:
𝐿𝑆𝐶 = 𝜇 + 𝐴𝜎
𝐿𝐼𝐶 = 𝜇 − 𝐴𝜎
.
𝐿𝑆𝐶 = 𝑥̿ + 𝐴 ∙ 𝑠̅
𝐿𝐼𝐶 = 𝑥̿ − 𝐴 ∙ 𝑠̅
𝐿𝑆𝐶 = 𝑥̿ + 𝐴 ∙ 𝑅
𝐿𝐼𝐶 = 𝑥̿ − 𝐴 ∙ 𝑅
Una distribución no puede caracterizarse únicamente por su valor medio; es necesario conocer
también una media de dispersión de los artículos en torno de la media. Por ello, el grafico de la
media no es suficiente para evidenciar la ocurrencia de los valores demasiados alejados por
encima o por debajo de la media, los cuales podrán compensarse dejando la media inalterada.
Conviene por lo tanto establecer un gráfico de control de la dispersión, eligiendo el grafico de
la desviación estándar o el grafico de la amplitud. 45
Se comprende fácilmente por que el grafico de la amplitud R se emplea más que el grafico de s,
para control de la dispersión, con muestras pequeñas de hasta 10 artículos.
LCS = D2 * σ
LCI = D1 * σ 46
Es un diagrama para variables de tipo continuo, pero en lugar de aplicarse a procesos masivos
como en el caso de la carta X-R, se emplea en procesos lentos, en los cuales para obtener una
medición o una muestra de la producción se requieren periodos relativamente largos tales
como:
Procesos químicos que trabajan por lotes
Industria de bebidas alcohólicas, en los que se debe esperar cierto tiempo t
para obtener resultados de los procesos de fermentación y destilación.
Procesos en los que las mediciones cercanas sólo difieren por el error de medición. Por
ejemplo,
temperaturas en procesos, humedad relativa en el medio ambiente, etc.
Algunas variables administrativas cuyas mediciones se obtienen cada día, cada semana
o más (mediciones de productividad, de desperdicio, de consumo de agua, electricidad,
combustibles)
47
La Carta de Rangos Móviles, muestra los valores de rangos móviles de orden 2 con el
fin de detectar cambios en la dispersión del proceso. Los límites de control se determinan
igual que para la carta de medias y rangos, pero en este caso las constantes D3 y D4 se
determinan usando valores de n=2 , donde para este valor de n, D3 = 0 y D4 =
3.2686, por lo tanto:
BIBLIOGRAFIA
Humberto Gutierrez Pulido,Roman de la Vara Salazar “Control estadístico de calidad
y Seis sigma “ -2da Edicion Mc Graw Hill
Revista de Estudios Interdisciplinarios en Ciencias Sociales UNIVERSIDAD
Rafael Belloso Chacín - Gestión de la Calidad: Control Estadístico y Seis Sigma
Giampaolo Orlandoni Merli
ANEXO
ÍNDICE
50
ATRIBUTO: Características de la calidad que se dividen en dos grupos: los que satisfacen
determinadas especificaciones y los que discrepan de ellas
Tipo de gráficos por atributo:
Gráficos p, de proporción defectuosa (para tamaños de muestra no constantes)
Gráficos np, de cantidad de defectuosos (para tamaños de muestra constantes)
Gráficos c, de cantidad de defectos (para tamaños de muestra constantes)
Gráficos u, de proporción de defectos (para tamaños de muestra no constantes)
2. GRÁFICAS P
Cartas p y np (para defectuosos)
Existen muchas características de calidad del tipo pasa o no pasa y, de acuerdo con éstas, un
producto es juzgado como defectuoso o no defectuoso (conforme o no conforme), dependiendo
de si cumple o no con las especificaciones o criterios de calidad. En estos casos, si el producto
no tiene la calidad deseada no se permite que pase a la siguiente etapa del proceso; además, es
segregado y se le denomina artículo defectuoso.
Carta p
Muestra las variaciones en la fracción de artículos defectuosos por muestra o subgrupo; es
ampliamente utilizada para evaluar el desempeño de procesos.
• Si de las ni piezas del subgrupo i se encuentra que di son defectuosas (no pasan), entonces en
la carta p se gráfica y se analiza la variación de la proporción pi de unidades defectuosas por
subgrupo:
Para calcular los límites de control se parte del supuesto de que la cantidad de piezas defectuosas
por subgrupo sigue una distribución binomial, misma que puede aproximarse moderadamente
bien por una distribución normal. Así, de acuerdo con la distribución binomial se sabe que la
media y la desviación estándar de una proporción están dadas, respectivamente, por:
51
𝐿𝑆𝐶 = 𝑛 p + 3 𝑛 p (1 − p )
𝐿𝐶 = 𝑛 p
𝐿𝐼𝐶 = 𝑛 p − 3 𝑛 p (1 − p )
∑
𝑢= 𝑢= ∑
Glosario:
Variable.- En matemáticas y en lógica, una variable es un símbolo constituyente de un
predicado, fórmula, algoritmo o de una proposición. El término «variable» se utiliza aun fuera
del ámbito matemático para designar una cantidad susceptible de tomar distintos valores
numéricos dentro de un conjunto de números especificado.1
En contraste, una constante es un valor que no cambia (aunque puede no ser conocido, o
indeterminado). En este contexto, debe diferenciarse de una constante matemática, que es una
magnitud numérica específica, independientemente de la naturaleza del problema dado.
Estandarizado.- Que se adecua a un formato, modelo o tipo:
Disconformidad.- insatisfacción o desacuerdo respecto a una decisión u opinión
6. BIBLIOGRAFÍA
Control de Calidad Richard Levin 6ta Ed. Estadistica de la Calidad Jerry Banks
Gutierres Pulido,
53
TEMA 5
1.- INTRODUCCIÓN. –
Debido a las actuales tendencias de la economía, las organizaciones han orientado sus estrategias hacia
el mejoramiento de la calidad y a la reducción de los costos de fabricación ; esta tendencia ha llevado
al enfoque en la producción y el uso de sistemas de control de calidad, que además de proporcionar
flexibilidad al proceso permitan disminuir costos que garanticen la reducción de falsas alarmas por
cambios en el proceso y la disminución de unidades defectuosas, lo que permite aumentar la calidad
en el producto final y la satisfacción del cliente. Para alcanzar este objetivo y obtener una ventaja
competitiva, se requiere la aplicación de diversas herramientas como el control estadístico de proceso.
El control estadístico de calidad de productos y servicios tiene como objetivo reducir su variabilidad e
idealmente eliminar sus defectos. Como un ideal se busca que todas las unidades fabricadas sean
idénticas y perfectas. En la práctica real se consigue reducir los desperdicios, minimizar los
reprocesamientos y mejorar la opinión del cliente, tratando de hacer las cosas bien a la primera vez y
este puede aplicarse a cualquier proceso.
Los gráficos utilizados para llevar a cabo el control estadístico del proceso se conocen como cartas o
gráficas de control. Estas permiten observar los resultados obtenidos periódicamente de una forma
didáctica, indicando si las variaciones que se presentan en un proceso están por fuera de lo normal.
Es una herramienta estadística que estudia el comportamiento de dos o más variables al mismo
tiempo. Se usan principalmente para buscar las variables menos representativas para poder
eliminarlas, simplificando así modelos estadísticos en los que el número de variables sea un problema
y para comprender la relación entre varios grupos de variables.
Una posible solución sería desarrollar métodos de control univariantes para cada característica, pero
existe una solución mejor que consiste en controlar todas de forma simultánea mediante técnicas de
control multivariantes. De esta forma, no sólo vamos a analizar el efecto de cada una de las
características sobre la calidad, sino que vamos a considerar también el efecto de las interacciones
entre ellas.
Esta situación se repite con la probabilidad de que el proceso se encuentre fuera de control.
56
Sin embargo, en el caso bidimensional, la región de aceptación tiene forma de elipse de control, cuya
inclinación depende de la correlación existente entre las variables que estemos analizando. Estas
elipses de control nos van a permitir determinar: puntos fuera de control que no se podrían detectar si
usáramos gráficos univariantes, y puntos situados bajo control que antes eran considerados como
situaciones fuera de control. Esta región de control cuando la correlación existente entre las variables
es nula va a tener la siguiente forma:
Si comparamos esta región de control con la resultante de utilizar dos gráficos de control univariantes
(figura 3.1) podemos observar que existen dos áreas coloreadas: cualquier observación que cayese en
una zona verde sería catalogada como fuera de control por los gráficos univariantes, pero estaría en la
verdadera región de control, por lo que sería una falsa alarma. Si una observación cayese en una zona
roja sería catalogada como bajo control cuando realmente no lo está, por lo que los gráficos
univariantes serían incapaces de detectar esas alteraciones.
Cuando las variables no son independientes la relación entre las variables va a quedar de manifiesto en
57
la mayor o menor inclinación de la elipse, de manera que, cuanto mayor sea la correlación existente
entre las variables mayor será la inclinación. Para dos variables que presenten una relación positiva la
forma de la región de control (elipse de control) será la siguiente:
Como se aprecia, las áreas de interpretación contraria aumentan, invalidando los resultados de los
gráficos univariantes. Por todo ello, es necesaria la construcción de gráficos multivariantes que
permitan controlar simultáneamente varias características de calidad.
Existen dos inconvenientes fundamentales que aparecen al utilizar estas elipses de control: el primero
es que vamos a perder la secuencia en el tiempo de las observaciones trazadas y, por lo tanto, va a ser 58
más difícil analizar la tendencia o aplicar otras técnicas de análisis de la información. El segundo es que
en el caso de que se analicen más de dos variables al mismo tiempo, la representación de la misma se
va a complicar. De ahí que en la mayoría de los métodos de control multivariantes se recurra a la
determinación de cierto estadístico que resuma la información junto con unos límites de control,
siguiendo una metodología similar a la utilizada con los gráficos de control univariantes.
Dentro de estas técnicas multivariantes cabe destacar tres: métodos basados en distancias
(básicamente, T2 de Hotelling), métodos MEWMA y métodos MCUSUM.
Hotelling en 1947 es el que impulsa y realiza el primer trabajo en control de calidad multivariado cuya
aplicación fue a datos sobre precisión de bombas durante la segunda guerra mundial.
𝑇 = (𝑥 − µ )` 𝛴 (𝑥 − µ ) … … … … … (1)
Dónde:
Si 𝛴 y µ son desconocidos, una estimación se puede obtener con la matriz de covarianzas muéstrales 𝑆̅
y la matriz de observaciones 𝑥̿ respectivamente, por lo que la ecuación del gráfico 𝑇 se vuelve:
𝑇 = (𝑥 − 𝑥̿ )`𝑆̅ (𝑥 − 𝑥̿ ) … … … … … … . (2)
Dónde:
1
𝑥̿ = 𝑥 … … … … … (3)
𝑚
1
𝑆̅ = 𝑆 … … … … … (4)
𝑚
Dónde:
1. Calcular el limite de control cuando el proceso se encuentre bajo control usando (3) ó (4) y un
nivel de confiabilidad deseado (𝛼).
2. Probar el proceso para determinar si este se encuentra bajo control utilizando un conjunto
nuevo de observaciones.
60
Cuando el proceso está bajo control, esto es µ = µ , existe una probabilidad α que el estadístico
exceda un valor critico 𝑥 ,p, α , por tanto, la probabilidad de error conjunto de primera especie se
puede fijar exactamente al nivel α produciéndose una alarma cuando 𝑇 > 𝑥 , p, α. De esta forma se
sugiere el uso de un gráfico similar al de Shewhart en el que se dibujan los valores de 𝑇 (gráfico de
control 𝑥 ), figura 1, con un único límite de control 𝐿𝐶 = 𝑥 , p, α.
Cuando se supera el valor LC diremos que el proceso está fuera de control. Si µ ≠ µ el estadístico 𝑇
se distribuye como una variable chi-cuadrado no central con p grados de libertad y parámetro de
descentrado 𝜆 = 𝑛(µ − µ )`𝛴 (µ − µ )
Para datos agrupados, el estadístico 𝑇 sigue una distribución F de Snedecor, por lo que los límites de
control bajo los supuestos usuales van a venir dados como:
𝑝(𝑚 − 1)(𝑛 − 1)
𝐿𝑆𝐶 = 𝐹 , ,
𝑚𝑛 − 𝑚 − 𝑝 + 1
𝐿𝐼𝐶 = 0
Así, podemos analizar si el proceso se encuentra bajo control mediante la representación de los valores 61
𝑇 junto a dicho límite de control. Cuando el valor 𝑇 para todas las muestras sea inferior al LSC, el
proceso se considera bajo control y, en caso contrario, que existe una anomalía que nos lleva a una
situación fuera de control.
Cuando aparece una situación fuera de control en un gráfico de control multivariante es conveniente
calcular esta contribución para cada una de las variables y centrar nuestra atención en aquellas
variables cuya contribución sea superior.
3. METODOS MEWMA.
GRÁFICOS MULTIVARIANTES DE MEDIA MÓVIL EXPONENCIALMENTE PONDERADA.
A diferencia de los gráficos univariantes, la versión multivariante puede ser de dos tipos: de
dirección invariante o de dirección específica. El ARL en los gráficos de dirección invariante va a
venir determinado por la distancia existente entre el valor de la media y el valor objetivo, mientras
que en el gráfico de dirección específica el ARL es una función de dicha distancia y de su signo. Es
un promedio ponderado en el tiempo, al realizar la gráfica del estadístico cada punto graficado
contiene información no sólo del último periodo sino también de los anteriores. A cada periodo se
le da un peso que decrece en forma exponencial a medida que se aleja del actual.
62
Donde 𝜆 es una constante que va a determinar el peso de las observaciones pasadas (0 < λ < 1) y 𝑥̅ es
la media aritmética de la submuestra i-enésima. Análogamente, la extensión multivariante adopta la
forma:
Donde 𝑥̅ es el vector de las medias muestrales y Λ es una matriz diagonal formada por los valores
lambda para las distintas variables ( λ , λ , … , λ ). Como valor inicial se considera 𝑍 = 0
Para controlar las variables, la información suministrada por los valores 𝑍 se resume en el estadístico:
𝑇 =𝑍, ,𝑍
[1 − (1 − 𝜆 )(1 − 𝜆 )]
(𝑘, 𝑙) = 𝜆 𝜆
[𝜆 + 𝜆 − 𝜆 𝜆 ]
𝜆
= 1 − (1 − 𝜆)
2−𝜆
Donde Σ es la matriz de varianzas y covarianzas de las variables iniciales. Con grandes valores de “i”, el
valor 1 − (1 − 𝜆) se aproxima a la unidad, por lo que, asintóticamente, la matriz de varianzas puede
definirse como:
𝜆
=
2−𝜆
63
El gráfico MEWMA permite usar valores λ específicos para cada variable. Aquí es donde se diferencia
un análisis direccional de uno sin dirección específica. Si se decide usar el mismo peso para todas las
variables, el gráfico es de dirección invariante debido a que las causas de variación llevan igual peso en
todas las variables. Sin embargo, si damos distinto peso a las variables, el gráfico se va a considerar de
dirección específica y, en ese caso, una señal fuera de control puede ser atribuida a los valores
específicos de aquella variable a la que hemos otorgado un peso mayor.
En Prabhu y Runger (1996) se demuestra, mediante el análisis de los valores del ARL para distintos
cambios en la media del proceso, que este gráfico MEWMA, es más rápido en su respuesta ante
pequeños cambios en la media del proceso, lo que representa una gran ventaja respecto a otros
modelos de control multivariantes. Por contra, va a ser menos efectivo que el gráfico T2 de Hotelling
en la detección de grandes cambios en el proceso. En este trabajo también se puede encontrar una
guía para la selección del límite superior de control, que va a depender del cambio en la media que
queramos detectar, del valor lambda seleccionado y del número de variables que estemos analizando.
Estos valores del límite superior de control son determinados de tal forma que ARL0=200. En la
siguiente tabla recogemos algunos de los valores para ese límite de control:
Se ha propuesto el diagrama de control de suma acumulativa o diagrama CUSUM (del inglés cumulative
sum) como una alternativa para la gráfica de control de Shewhart. Incorpora directamente toda la
información de la sucesión de valores muéstrales, graficando las sumas acumuladas de las desviaciones 64
de los valores muéstrales respecto de un valor objetivo. Por ejemplo, supóngase que se obtiene
muestras de tamaño 𝑛 ≥ 1, y que 𝑥̅ es el promedio de la i-ésima muestra. Entonces, si 𝑢 es el valor
objetivo de la media del proceso, la gráfica de control de suma acumulativa se formará graficando la
cantidad;
En función del número k de la muestra 𝑆 recibe el nombre de suma acumulativa hasta la k-ésima
muestra inclusive. Los diagramas de suma acumulativa son más eficaces que los de Shewhart para
detectar pequeños cambios en el proceso, pues combinan información de varias muestras. Además,
son particularmente eficaces para muestras 𝑛 = 1 de esto hace del diagrama de control de suma
acumulativa un candidato apropiado para el uso con mediciones automáticas de cada pieza y el control
en línea, utilizando una computadora directamente en el sitio de trabajo.
Igual que ocurría con el gráfico de control MEWMA, existe también la extensión multivariante del
gráfico de control de sumas acumuladas que vamos a denotar como MCUSUM. Se pueden utilizar dos
aproximaciones distintas para aplicar un CUSUM al caso multivariante: una es un análisis de forma
simultánea de varios procedimientos CUSUM univariantes; y la otra consiste en realizar una
modificación del esquema CUSUM para procesos multivariantes. Por lo tanto, el primer método
consiste en reducir las observaciones multivariantes a un escalar y elaborar un CUSUM de escalares,
mientras que el segundo método consiste en elaborar un MCUSUM directamente para las
observaciones.
Es decir, en el primer caso transformamos la información en un escalar y aplicamos sobre este escalar
el gráfico de control CUSUM, mientras que en el segundo se utiliza directamente la información que
tenemos para determinar el gráfico MCUSUM. El segundo procedimiento, que presenta un mejor
comportamiento en términos del ARL, está basado en los estadísticos:
65
𝐶 = {[𝑆 + 𝑋 − 𝑢 ]´∑ [𝑆 + 𝑋 − 𝑢 ]}
Con
𝑆 =0 Si 𝐶 ≤ 𝑘
𝑆 = (𝑆 +𝑋 −𝑢 ) 1− Si 𝐶 > 𝑘
𝑆 ´∑ 𝑆 > ℎ
En un gráfico CUSUM la magnitud del valor representado no tiene tanto interés como en los gráficos
Shewhart, pues aquí la importancia la tiene la pendiente que forma una trama de puntos.
66
Fig. 2 gráficos CUSUM cuando el proceso no está bajo control: a) µ > T. b) µ< T
En consecuencia, una trama de puntos horizontales, sea cual sea su magnitud, puede ser interpretada
como que en ese período de tiempo no hay evidencia de que la media del proceso no sea T. Por el
contrario, el alejamiento de la horizontal da pruebas de cambios en la media del proceso: cuanto
mayor sea la pendiente, mayor será la discrepancia entre µ y T.
Representación grafica
67
Uno de los gráficos MCUSUM con mejor comportamiento para detectar cambios de una forma rápida
fue desarrollado por Pignatiello y Runger (1990). Proponen dos procedimientos de control CUSUM
multivariantes basados en formas cuadráticas del vector de medias, la diferencia entre estos dos
procedimientos se centra en la forma en la que se lleva a cabo la acumulación. En el primer
procedimiento, que se denomina MC1, se acumula el vector de observaciones antes de determinar la
forma cuadrática, mientras que en el segundo, denominado MC2, se determina la forma cuadrática de
cada vector de observaciones y, entonces, se acumulan estas formas cuadráticas. El MC1 está basado
en el siguiente vector de sumas acumuladas multivariante:
Con este vector se construye el gráfico de control multivariante mediante la definición de MC1 como:
Siendo:
68
Donde ‖𝐶 ‖ es la norma de Ci, ni es el número de orden correspondiente a cada muestra que vamos
incorporando y k es un valor de referencia dependiente solamente de la magnitud del cambio que
queremos detectar.
El gráfico de control MC2 está basado en la determinación de las sumas acumuladas a partir del
cuadrado de la distancia de cada media muestral al valor objetivo (𝑢 ). Para construir este gráfico de
control tendremos que determinar el estadístico:
Este estadístico sigue una distribución 𝑥 con p grados de libertad cuando el proceso está bajo control
y una distribución 𝑥 no central cuando el proceso está fuera de control.
Los dos esquemas MCUSUM proporcionan una detección más rápida de un cambio en el vector de
medias que los gráficos T2, siendo preferible en este sentido el CUSUM multivariado. Además el CUSUM
multivariado (como el MEWMA) proporciona una indicación de la dirección en la cual han cambiado
las medias.
El objetivo de aplicar estas técnicas que nos permiten la identificación de la variable o variables que
han causado la situación fuera de control. Sin duda la consideración de una de estas técnicas de
clasificación como complemento al grafico de control multivariante constituye una buena forma para
identificar las causas del cambio en el proceso u, por lo tanto, potenciar la aplicación de gráficos de
control multivariante en los procesos industriales.
Sir Ronald Fisher fue el innovador del uso de los Métodos Estadísticos de Experimentos, ya que utilizó
69
por primera vez el Análisis de Varianza como herramienta primaria para el análisis estadístico en el
Diseño Experimental. A pesar de que fue el pionero, muchos han contribuido de manera significativa,
entre ellos pueden encontrarse F. Yates, G.E.P. Box, R.C Bose, O. Kempthorne y W.G Cochran.
Muchas de las primeras aplicaciones de los métodos sobre este rubro se dieron en las áreas de
Agricultura y Ciencias Biológicas. Sin embargo, las primeras aplicaciones industriales se hicieron en
1930 aproximadamente, en el área Textil. Después de la Segunda Guerra Mundial, los métodos del
Diseño Experimental se introdujeron en la industria Química y de Transformación de Estados Unidos y
Europa. En años recientes ha habido un renovado interés, en virtud de que varias industrias
descubrieron que sus competidores han estado usando por mucho tiempo Experimentos Diseñados, lo
que ha sido un factor importante en su éxito.
“Un experimento diseñado es una prueba o serie de pruebas en las cuales se inducen cambios
deliberados en las variables de entrada de un proceso o sistema, de manera que sea posible observar
e identificar las causas de los cambios en la respuesta de salida. Actualmente los métodos
de diseño experimental tienen una amplia aplicación en muchas disciplinas. Ejemplos: la Agricultura y
el Diseño Técnico.
El Diseño Experimental puede ser considerado como parte del proceso científico y una de las formas
en que aprendemos acerca de la forma en que funcionan los sistemas o procesos.
Por lo general, este aprendizaje se da a través de una serie de actividades en las cuales hacemos
conjeturas sobre un proceso, realizamos experimentos para generar datos a partir del proceso, y
entonces usamos la información del experimento para establecer nuevas suposiciones, que llevan a
realizar nuevos experimentos, y así sucesivamente, comportándose cíclicamente.
70
5.1. OBJETIVOS DE UN DISEÑO EXPERIMENTAL:
Todo proceso o sistema productivo puede representarse mediante el modelo mostrado en la Siguiente
figura:
Es decir, que puede ser visualizado como una combinación de máquinas, métodos, personas y otros
recursos que transforman alguna entrada (materia prima), en una salida que tiene una o más
respuestas observables. Algunas variables dentro del proceso son controlables, mientras que otras son
incontrolables.
Determinar cuáles son las variables que tienen mayor influencia en la variable de respuesta.
Determinar el mejor valor de las variables controlables que influyen en la respuesta, de manera
que ésta, tenga casi siempre un valor cercano al valor nominal deseado.
BIBLIOGRAFIA.
- Anchiraico Agudo, William Richard (LIMA – PERÚ 2003). “Métodos multivariantes en control
estadístico de la calidad”.
- Lara Porras A.M. (2001). “Diseño estadístico de experimentos, análisis de la varianza y temas
relacionados: tratamiento informático mediante SPSS”. Ed.: Proyecto Sur.
- Miguel A. Flores Sanchez. (2013). “Desarrollo de una aplicación para gráficos de control de
procesos industriales”
GLOSARIO.
1. Método.- Es un modo, manera o forma de realizar algo de forma sistemática, organizada y/o
estructurada.
2. Multivariante.- Método estadístico utilizado para determinar la contribución de varios factores
en un simple evento o resultado.
3. Vector.- Es un término que deriva de un vocablo latino y significa “que conduce”… como
velocidad y fuerza.
4. Dirección.- line imaginaria establecida entre dos puntos, en especial cuando indica orientación
o destino.
5. Matriz.- Una matriz es una colección ordenada de elementos colocados en filas y columnas, o
sea es un arreglo bidimensional de números (llamados entradas de la matriz) ordenados en
filas (o renglones) y columnas, donde una fila es cada una de las líneas horizontales de la matriz
y una columna es cada una de las líneas verticales.
6. Estadístico.- En estadística un estadístico (muestral) es una medida cuantitativa, derivada de
un conjunto de datos de una muestra, con el objetivo de estimar o inferir características de una
población o modelo estadístico.