Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cesar Camisón en su libro gestión de la calidad hace referencia que: “Los verdaderos inicios del
control estadístico de la calidad se encuentran en la Society of Industrial Quality Statisticians
(SIQS), la Society of Quality Control Engineers, la Federated Societies y la Society for Quality
Control, nacidas a principios de los años 40” (2007:7).
La estructuración completa del movimiento por la calidad tuvo que esperar hasta la construcción
de una red mundial de especialistas en el campo. Quizás, el primer antecedente fuese el Six
Men Board, constituido en 1966 por Armand Vallin Feigenbaum con los japoneses Kaoru
Ishikawa y Kiminobu Kogure, el británico F. Nixon, el francés Georges Borel y el estadounidense
Jack Lancaster. Este grupo se transforma pronto en la International Academy for Quality
(IAQ) (p 7 prr 3)
En el libro gestión de la calidad Camisón señala que la conformación de los grupos con iniciativas
hacia la calidad no fueron constituidos sino hasta tener establecida una amplia organización de
expertos en la materia: “el primer antecedente fuese el Six Men Board, constituido en 1966
por Armand Vallin Feigenbaum con los japoneses Kaoru Ishikawa y Kiminobu Kogure, el británico
F. Nixon, el francés Georges Borel y el estadounidense Jack Lancaster” (2007:7). Posteriormente
pasando a convertirse en la international academy for Quality (IAQ).
Esta división entre dos organizaciones nacionales de calidad se superó con la llamada
a un encuentro para su unificación en febrero de 1946, que tuvo finalmente lugar con
el nombre de American Society for Quality Control (ASQC). En 1997 elimina la palabra
«control» de su nombre, adoptando la marca actual de American Society for Quality
(ASQ). (p 8 prr 2)
Estados Unidos cuenta con otras organizaciones que incluyen entre sus objetivos
acciones en calidad. Es el caso del American Productivity & Quality Center (APQC). Es
una corporación exenta de impuestos fundada en 1977 por 11 empresas líderes (AT&T,
Arthur Andersen, Browning-Ferris Industries, Campbell Soup Company, DRI/McGraw-
Hill, General Motors Corporation, Hewlett-Packard Company, Honeywell, IBM
Corporation, Price Waterhouse y Xerox), de la cual forman parte ahora más de 500
miembros. Su objetivo global es ayudar a sus organizaciones asociadas a mantener su
ventaja competitiva implantando esfuerzos de mejora continua. (p 10 prr 1)
Otro pilar esencial del movimiento mundial por la calidad es la Union of Japanese
Scientists and Engineers (JUSE), creada en 1946 como fundación por la Science and
Technology Agency (más tarde reformada como Ministry of Education, Culture, Sports,
Science and Technology) del gobierno japonés5. Su primer presidente fue el propio
Ishikawa. Su sede está en Tokio. (p 10 prr 2)
Por otro lado en los Estados Unidos existen otras organizaciones enfocadas en la calidad que
tienen sus propios objetivos, una de ellas es la American Productivity & Quality Center (APQC)
la cual menciona Camisón: “Es una corporación exenta de impuestos fundada en 1977 por 11
empresas líderes (AT&T, Arthur Andersen, Browning-Ferris Industries, Campbell Soup Company,
DRI/McGraw-Hill, General Motors Corporation, Hewlett-Packard Company, Honeywell, IBM
Corporation, Price Waterhouse y Xerox)”(2007:10). En la actualidad son más de 500 miembros
que tienen como principal objetivo ayudar a las organizaciones que están asociadas a mantener
su ventaja competitiva a través de lo que se conoce como la mejora continua. Otra de las
organizaciones más importantes de la calidad es la Union of Japanese Scientists and Engineers
(JUSE), que tuvo su formación en 1946 y la cual tuvo al propio Ishikawa como su primer
presidente.
La European Organization for Quality (EOQ) es una organización sin ánimo de lucro
constituida en 1956 en La Haya, cuando el control estadístico de los procesos se
extiende por el continente europeo bastante después de haber penetrado en el Reino
Unido. Fue un acto voluntad de las asociaciones nacionales de Francia, Holanda, Reino
Unido, Italia y Alemania Federal. Inicialmente, tomó el nombre de European
Organization for Quality Control, transformado posteriormente por el actual siguiendo el
ejemplo de la ASQ. (p 11 prr 3)
En Europa se crea en 1956 la European Organization for Quality (EOQ) la cual se hace presente
como una organización sin ánimos de lucro, una vez que el control estadístico de procesos ya
estaba bastante extendido por todo el continente las asociaciones de Francia, Holanda, Reino
Unido, Italia y Alemania Federal deciden por su propia voluntad formar parte de esta
organización. Teniendo como misión mejorar la competitividad y ayudar en el desarrollo
sostenible de Europa mediante la fomentación de las políticas de calidad, además de compartir
información, conocimientos y técnicas de calidad entre los miembros de la organización
(Camisón et al, 2007:11).
La primera generación en la historia de la calidad tenía establecido como prioridad la calidad del
producto terminado. Lo que se hacía era inspeccionar el producto una vez que ha terminado su
proceso de elaboración para verificar si cumple con las especificaciones previamente
establecidas y en caso de no llegar a cumplirlas dicho producto era desechado o reprocesado.
Esto era motivo para que existan altos costes de no calidad debido alto porcentaje de producto
desechado o reprocesado y a la falta de planes de mejora o de prevención. La calidad como
función industrial aparece con el cambio del sistema artesanal a la fábrica. Los artesanos eran
los encargados de realizar la inspección de sus propios productos ya que tenían pleno control
de todo el proceso, una vez finalizado el proceso se encargaban de verificar que cumpliese con
las especificaciones que debía tener el producto tal como había sido elaborado por
generaciones. Estos conocimientos eran transmitidos a sus aprendices garantizando asi que se
siga la línea de producción establecida, por este motivo había escasa innovación y era
estrictamente enfocado hacia el proceso más no hacia el cumplimiento de las necesidades del
cliente (Camisón et al, 2007:84).
En Estados Unidos desde 1830 empieza a crecer a gran escala el sistema de producción
intercambiable. Este sistema se trata de la producción en masa de productos de iguales
características cuidando que se cumplan los parámetros del producto final con un margen de
tolerancia muy estrecho. Como menciona Camisón: “El modelo de referencia en este modelo
productivo es la fábrica construida por Henry Ford entre 1908 y 1910. El sistema fordista supuso
lecciones trascendentales sobre la producción en masa acortando tiempos, la estandarización y
la mejora continua” (2007:86-87). Debido a la necesidad de controlar la producción y asegurar
la calidad nace la inspección a gran escala la cual era muy deficiente ya que se controlaba cada
pieza de forma individual formándose así grupos de inspectores de calidad que igualaban en
número al de trabajadores de la producción. Aquí también nace el rol de especialista en calidad
que pasa a ser la persona encargada del diseño y las inspecciones que se realizan además de las
herramientas que serán utilizados para la realización de estas inspecciones.
Una segunda línea de investigación, derivada del grupo de ingenieros de Bell Labs, fue
liderada por el físico Walter A. Shewhart, considerado unánimemente como el padre del
CEC, y supuso el nacimiento de la orientación hacia el proceso. Esta nueva orientación
centra el control en el proceso, en los problemas de línea, y no sólo en el producto al
final de ésta. El nuevo enfoque técnico que se construye sobre estos mimbres se basa
en el control estadístico de procesos (CEP). (p 90 prr 3)
Los ingenieros de Bells principalmente Harold F. Dodge y Harry G. Romig desde 1920 empezaron
a trabajar en un conjunto de teorías estadísticas dando así con el desarrollo de los llamados
planes de muestreo por aceptación. Debido a que este tipo de muestreo no era muy confiable
ya que la probabilidad de que se rechacen lotes que se debían aceptar o viceversa era muy alta
se vieron en la necesidad de mejor este tipo de muestro, dando así paso a la creación de las
tablas de muestro de inspección que estaban dirigidas a las personas que no tenían
conocimientos básicos de estadística lo cual les permitía poder realizar planes de muestreo con
mayor facilidad. Este tipo de muestreo estadístico fue de gran utilidad ya que permitía realizar
las inspecciones con mayor facilidad, debido a que se reducía considerablemente el tamaño de
las muestras a ser inspeccionadas ayudando a que se pueda controlar grandes cantidades de
producción, mediante la toma de muestras aleatorias que ayudarían a conocer la probabilidad
estadística de los defectos que tiene cada lote producido. El físico Walter A. Shewhart lidera una
segunda investigación en los laboratorios de Bells que esta vez estaría orientada en el proceso
y en el control del mismo, las dificultades que se pueden presentar en las líneas de producción
y ya no solo en el producto terminado. Este nuevo enfoque se conocería como el control
estadístico de procesos (CEP) (Camisón et al, 2007:90).
Para atajar esta cuestión, Shewhart aplicó la probabilidad a fin de desarrollar técnicas
estadísticas sencillas que permitiesen fijar los límites de variación aceptable, así como
los gráficos de control X y R (en 1924) como método para distinguir entre la variación
normal, producto de causas aleatorias, y la variación excesiva, cuyas causas se podían
determinar. (p 91 prr 2)
A partir de sus investigaciones Shewhart puede reconocer que la variabilidad en los procesos de
producción era algo natural debido a que existían muchas causas netamente aleatorias que
podían estar inmersas en cada una de las etapas del proceso empezando desde las diferencias
existentes entre las materias primas, defectos de la misma maquinaria o herramientas de
trabajo y también las destrezas o capacitación de cada uno de los trabajadores al momento de
realizar sus actividades. El problema fundamental derivado de esto era poder encontrar de entre
todos estos tipos de variación cual era aceptable y cual debía ser el rango permitido de variación
dentro del proceso, una vez logrado esto poder encontrar sus causas y tratar de reducirlas
eficazmente. Con la finalidad de resolver todas estas interrogantes Shewhart aplico la
probabilidad que lo ayudarían a desarrollar nuevas y más sencillas técnicas para encontrar así
los límites de variación aceptables, dando así lugar a l aparición de los gráficos de control X y R
en el año de 1924. Con esta nueva técnica se podría distinguir entre la variación normal que se
debía a causas aleatorias y la variación excesiva que era fácilmente determinada en el proceso
(Camisón et al, 2007:91).
Quizás la última tendencia del enfoque técnico sea Seis Sigma (Six Sigma, 6). Se trata
de un programa dirigido a la práctica eliminación de defectos, fuertemente inspirado en
las ideas de Taguchi. Seis Sigma fue aplicado inicialmente por Motorola como resultado
de una investigación de uno de sus ingenieros, Mikel Harry, en su división de electrónica
localizada en Phoenix en 1985. el concepto fue ideado como una estrategia para lograr
que Motorola pudiese pervivir en el mercado de componentes electrónicos, fuertemente
amenazado por la competencia japonesa. (p 115 prr 2)
La expansión del concepto arrancó con la creación del Six Sigma Research Institute en
la Motorola University (Schaumburg, IL), donde Mikel Harry desarrolló una metodología
de mejora continua de la calidad que combinaba métodos estadísticos ya conocidos
(como el diseño de experimentos, el análisis modal de fallos y efectos, las siete
herramientas básicas de control de calidad establecidas por Ishikawa, CEP o diseño
estadístico de experimentos) pero de una forma original. (p 115 prr 3)
La lista de grandes empresas que han aplicado este sistema es ya interminable, y hoy
en día constituye el método de Gestión de la Calidad más aplicado en las corporaciones
de todo el mundo, por delante incluso de la GCT. (p 115 prr 4)
Hoy en día la última tendencia del enfoque técnico es el llamado seis sigma (six sigma). Está
dirigido básicamente a la eliminación de defectos, lo cual fue fuertemente inspirado en las ideas
de Taguchi. Motorola fue la primera empresa en aplicar este método en su afán de no decaer
en el mercado de componentes electrónicos que se veía en riesgo debido a la fuerte
competencia por parte de los japoneses. Fue desarrollada por Mikel Harry dio inicio a esta nueva
metodología que se basaba en la mejora continua de la calidad mediante la combinación de
métodos estadísticos que ya eran conocidos como son el diseño de experimentos, el análisis
modal de fallos y efectos, las siete herramientas básicas de control de calidad establecidas por
Ishikawa y el control estadístico de procesos solo que se les dio una forma de aplicabilidad más
original (Camisón et al, 2007:115).
CONCEPTOS
calidad estatica y calidad dinámica la calidad no es un blanco fijo que se alcanza una vez
que se logra cierto nivel, sino un proceso de mejora continua. (p 149 prr 2)
calidad absoluta y calidad relativa La calidad se valora entonces de forma absoluta, con
independencia de la persona, y se mide de forma incontestable por la distancia entre la
calidad realizada y la calidad programada. (p 149 prr 3)
Los conceptos absolutos de calidad son también definiciones internas para mejorar la
conformidad de productos y procesos, de las cuales está ausente el análisis del entorno
competitivo y de los mercados. Este concepto de calidad interna hace hincapié en la
mejora de la eficiencia interna para lograr laconformidad con las especificaciones en los
procesos y la reducción de los costes de no calidad. (p 149 prr 5)
la definición de calidad debe ante todo servir para medir la calidad del producto de modo
que sea posible un análisis continuo de su evolución en el tiempo. Las medidas son
entonces tomadas continuamente para determinar la conformidad con aquellas
especificaciones.La no conformidad detectada es la ausencia de calidad. (p 154-155 prr
3)
Calidad
Al evaluar las características del producto fabricado, el término calidad se utiliza para
indicar el nivel de comportamiento del producto. Generalmente, el comportamiento
deseado se mide en términos de los requisitos especificados.
Se conoce como calidad a la capacidad que tiene el producto para cumplir con las
especificaciones previamente establecidas para el mismo, y como se comportan cada
una de sus características. Cada uno de los componentes del producto deben ser
sometidas a pruebas para comprobar así el cumplimiento de los límites de tolerancia
permitidos, de esta manera se podrá probar si tiene calidad aceptable o deberá ser
rechazado (Lester et al, 1989:25).
Control
El control de la calidad abarca dos aspectos principales. El primero se refiere a la
capacidad y a la medición real de las características de la calidad que son significativas
en cuanto al comportamiento del producto. El segundo se refiere a proporcionar los
caminos que conducen a la acción correctora en todos aquellos casos en los que las
mediciones de la calidad indican un comportamiento significativamente fuera de
estándar en términos de materiales de recepción, fabricación de componentes o montaje
final.
El control hace referencia a todas las acciones que se realizaran para dar seguimiento
a un producto las cuales van desde la medición de las características que este posee y
observar cuál es su comportamiento una vez sometido a diferentes pruebas. Una vez
esto hecho se podrán aplicar todas las acciones correctoras de ser el caso que no se
lleguen a cumplir con las especificaciones, de otro modo el producto que si las cumpla
será considerado como aceptable y no habrá la necesidad de realizar ninguna otra
acción (Lester et al, 1989:25).
Aplicación de sistemas
El proceso de control de calidad tiene lugar dentro del marco de la aplicación de
sistemas. El objetivo del sistema de control de calidad es generalmente la consecución
de unos niveles particulares de calidad, tal como se indica en las especificaciones y
tolerancias. Las características importantes de estas especificaciones incluyen la
descripción exacta del producto, los límites claramente definidos de varias
características, los estándares de las medidas directas (tales como las dimensiones) o
medidas indirectas (tales como contenido de humedad, deducido a partir de las lecturas
de la resistencia eléctrica), y la diferenciación entre características de calidad mayores
o críticas y los defectos menores o menos importantes. La vía para la consecución del
objetivo del sistema de control de calidad pasa a través del equipo de producción, el
personal, y los servicios de procesamiento, operaciones y similares. El seguimiento es
el paso final, por medio del cual se garantiza el control de calidad.
KAORU ISHIKAWA
Herramientas estadísticas
llamó las Siete Herramientas del CC en memoria de las famosas siete armas del
guerrero-sacerdote japonés de la era Kamakura, Benkei, que le permitieron triunfar en
las batallas; así también, las Siete Herramientas del CC, si se utilizan hábilmente,
permitirán que se resuelva el noventa y cinco por cien de los problemas de los puestos
de trabajo. En otras palabras, las herramientas estadísticas intermedias y avanzadas
se necesitan sólo en un cinco por cien de los casos.
Las herramientas estadísticas para el control de calidad planteadas por Ishikawa fueron
siete en honor al mismo número de armas de un guerrero ancestral de la historia
japonesa llamado Kamakura Benkei, con las cuales pudo salir triunfante de las batallas.
Estas herramientas aplicadas de una manera correcta serían capaces de ayudar a
resolver el noventa y cinco de los problemas que se presentan en las empresas, es decir
que solo se necesitaría aplicar métodos más avanzados de estadística para resolver el
cinco por ciento restante de los problemas (Ishikawa, 1994: 111).
Además de estas siete herramientas conocidas como métodos estadísticos básicos Ishikawa
menciona que también se deben aplicar los métodos intermedios que deberían ser dirigidos
para los ingenieros o las personas que tienen una mayor preparación, siendo estos métodos los
siguientes:
Mientras que para las personas con un nivel más avanzado y personas especializadas en control
de calidad están los siguientes métodos:
El control de los procesos muchas veces tiene un significado confuso ya que puede ser visto solo
como la capacidad de controlar el proceso de producción de una línea hasta obtener un
producto terminado para el consumo. Mientras que en realidad controlar todas las actividades
que se realizan durante un proceso desde el diseño hasta el análisis adecuado de dicho proceso
(Ishikawa, 1994: 111).
Ishikawa (1994: 312) plantea algunas diferencias entre control y otros términos que muchas
veces son confundidos:
"Control" y "Mejora"
"Control" quiere decir mantener un proceso en su estado presente, de momento. Sin embargo,
si sucede una anomalía, su causa es eliminada y se evita que vuelva a suceder, y esta acción
produce una ligera mejora. En este sentido, el control es una forma pasiva de mejora. La
"mejora" consiste en buscar activamente los problemas, resolverlos, efectuar un arreglo
permanente para evitar cualquier vuelta atrás, y controlar la nueva situación. Quiere decir
continuar mejorando activamente las cosas.
"Control" e "Inspección"
El "control" consiste en hacer comparaciones con estándares de control o con límites de control
en los gráficos de control, buscar las causas asignables en el proceso o trabajo si se violan los
estándares o hay puntos que caen fuera de los límites, y acometer acciones respecto al proceso.
En contraste, la "inspección" consiste en hacer comparaciones con normas de inspección y, si
no se cumplen, acometer acciones sobre el producto, e.g., designando a los productos
individuales como unidades defectuosas, rechazando a los lotes por inaceptables o instituyendo
la inspección del 100 % (inspección tipo cribado). La idea de que se debe adoptar la inspección
del 100 % si un gráfico de control indica que un proceso se ha salido de control es equivocada.
La decisión de si hacer o no una inspección del 100 % se debe basar en las normas para la
inspección del tipo del cribado.
"Control" quiere decir buscar y eliminar las causas de las anomalías siempre que los puntos de
un gráfico de control caigan fuera de los límites de control, i.e., cuando el gráfico indica falta de
control. "Ajuste" quiere decir realizar alguna acción reguladora tal como alterar la temperatura
cuando se exceden ciertos límites de ajuste. Generalmente, es erróneo hacer ajustes tales como
alterar la temperatura o cambiar la profundidad de penetración de una herramienta cortante
cuando algunos puntos caen fuera de los límites de control en un gráfico de control. Tales ajustes
pueden hacerse como medida provisional, pero esto no elimina las verdaderas causas de la
anomalía. Usualmente, los límites de control y los de ajuste son intrínsecamente diferentes.
En esta etapa aparecen los artesanos que eran responsables de elaborar un producto
determinado y también eran los encargados de todo el proceso ya que muchas veces trabajaban
individualmente. La producción se realizaba en pequeños talleres y era comercializada en los
mercados locales, por este motivo la relación con los clientes era muy cercana lo que permitía
que estos den especificaciones sobre el producto que quieren comprar lo cual obligaba al
artesano a cumplir estas exigencias y así mejorar sus habilidades. A partir del siglo XVII surgen
cambios con la creación de las ciudades que eran levantadas en zonas a apartadas de las
comunidades rurales, esto dio paso a que los artesanos decidan migrar a estas ciudades en las
cuales veían más oportunidades de poder comercializar sus productos. Debido al creciente
comercio dentro de las ciudades aparecen los mercaderes quienes compraban parte de la
producción a los artesanos para después vendida a diferentes precios establecidos por ellos
mismos, al existir esta especie de intermediarios entre productor y consumidores los artesanos
podían dedicarse solamente a producir olvidándose de otros aspectos y de esta manera se
incrementaba la producción a la vez que se daba mayor énfasis a la calidad la cual dependía
meramente del artesano y de sus habilidades (Tarí, 2003).
Con la aparición de la revolución industrial y de las grandes fábricas algunos artesanos se vieron
obligados a dejar sus actividades, algunos se convirtieron en empresarios, otro grupo decidió
ingresar como operarios en estas industrias, siendo solo un pequeño grupo los que continuaban
con su trabajo anterior. A finales de siglo XIX con la llegada de las maquinas se producía un
cambio total ya que los artesanos que ahora eran operarios debían adaptarse y aprender a
manipular estas nuevas tecnologías, que además estaban destinadas para la producción a
grandes volúmenes. Estos productos elaborados dentro de las fábricas debían cumplir con
especificaciones de los clientes que eran dados al comprador el cual era encargado de diseñar y
ajustar los requisitos que debía poseer cada producto para después pasar esta información a los
operarios para su elaboración. De esta manera seguía existiendo una estrecha relación entre el
cliente y el productor a fin de que el producto final sea de acuerdo a los deseos del consumidor
y tenga buena calidad que en esta etapa de igual manera seguía dependiendo de las habilidades
que tenía cada uno de los operarios anteriormente artesanos (Tarí, 2003).
La relación que había existido entre productor y cliente desaparece totalmente a finales del siglo
XIX en los Estados Unidos, dando así inicio a un nuevo proceso en el cual se implanto una estricta
división y estandarización del trabajo cambiando completamente las condiciones y los métodos
con los que se realizaban. Estos cambios fueron causantes de un deterioro en la calidad de los
productos debido a la producción en serie que se tenía era muy frecuente que los operarios
cometieran errores, que se olvidaran de colocar piezas provocando así la entrega de artículos
defectuosos. En vista de estos primeros problemas las industrias se vieron en la necesidad de
crear una nueva función en la cual una persona seria la encargada de realizar la inspección y
verificar que productos cumplían con los requerimientos y cuáles no, dejando atrás esta
responsabilidad que antes era de los operarios y pasándosela al inspector. Aunque la calidad en
esta etapa no era realmente considerado como un problema que debía corregirse
inmediatamente ya que al haber poco abastecimiento en los mercados esto hacia que los
productos sean consumidos en su totalidad. La calidad en si solo se empieza a estudiar a
principios del siglo XX una vez que se la fue relacionando con los ya implementados términos de
inspección que para entonces ya estaban puestos en marcha dentro de las industrias (Tarí,
2003).
Después de la II Guerra Mundial la calidad tomaba dos caminos diferentes, por un lado estaba
occidente los cuales se mantenían con su enfoque basado netamente en la inspección de los
productos, por otro lado hace su aparición el enfoque japonés el cual era muy diferente a los
que hasta entonces se conocía en occidente. En Japón se habían empezado a emplear diferentes
métodos estadísticos para el control de calidad, lo cual no se hacía en occidente ya que no se
daba mayor importancia a la calidad debido a que en estos mercados sus productos eran
vendidos con facilidad debido al poco abastecimiento que existía en ese entonces. El control de
calidad tenia cierto límite que era enfocarse solo en la planta productiva, pero este enfoque fue
ampliado gracias a las lecciones del Dr. Juran sobre el arte del Quality management, las cuales
fueron puestas en prácticas en Japón y no en EE.UU., por este motivo la calidad empezó a ser
vista de forma mucho más amplia por la administración de las empresas japonesas. Durante la
década de los 50 Japón comprendió que los artículos debían producirse de manera correcta
desde el principio para no tener problemas al final. Por tal motivo además de realizar la
inspección al producto terminado se enfocaron en buscar la manera de controlar los factores
que intervenían en el proceso y que podían ocasionar productos defectuosos. En vista de esto
las empresas japonesas debían realizar una estructuración de la empresa ya que la aplicación
del control de calidad iba más allá de solo el departamento de producción. Por lo cual para
desarrollar un producto de buena calidad era necesario que todos los departamentos de la
empresa estén involucrados en el proceso. Por otro lado las empresas en occidente no
evolucionaban y consideraban todavía la inspección como sinónimo de calidad, por lo cual
seguían desarrollando técnicas que se basaban netamente en la inspección del producto final
mediante las cuales podían determinar si un producto era idóneo, debido a esto existía gran
cantidad de eliminación de producto y reproceso lo que ocasionaba que los costes de fabricación
aumenten siendo los principales afectados los clientes (Tarí, 2003).
A mediados de los años setenta occidente se empieza a dar cuanta de la gran ventaja que Japón
tenia y el liderazgo que había conseguido producto de una reestructuración de su cultura
referente a la calidad. Mientras que en occidente esta cultura se basaba en la productividad, los
cuales con la llegada de la crisis petrolera se vieron en la necesidad de ahorrar energía y
disminuir los costes de producción lo cual solo se lograría si se reducía los desperdicios y
reprocesos que en ese entonces eran muy elevados. Así empieza la etapa en la cual la
competencia era cada vez más fuerte debido a la globalización de los mercados lo que ocasiona
que la industria estadounidense empiece a perder el liderazgo que había obtenido por décadas
en diferentes sectores. Los mercados se enfrentan ahora a consumidores cada vez más
informados que ya no se conforman solamente con recibir un producto sino que empiezan a
exigir la calidad como factor determinante para adquirir un bien o servicio. El enfoque japonés
sobre la prevención en vez de la inspección pasa a ser parte importante a nivel mundial teniendo
a la calidad como único requisito para que una empresa pueda ser competitiva, debido a esto
durante los años ochenta y noventa las empresas de todo el mundo tratan de importar
soluciones empeladas por los japoneses, retomando así la estrecha relación entre cliente y
productor que se había distanciado durante gran parte del siglo XX (Tarí, 2003).
DEFINICIÓN DE CALIDAD
Existen diversas definiciones de calidad una de ellas como hacen referencia Render y Heizer
(2014) la calidad tiene tres enfoques vistos desde diferentes puntos el primero es un enfoque
basado en el usuario mediante el cual debe realizarse una investigación previa para conocer las
necesidades y requerimientos del usuario. El segundo enfoque está basado en el producto el
cual adquiere las características o atributos que fueron previamente indagados. Como tercer
enfoque se presenta a la manufactura que se encarga de elaborar y asegurar que el producto
cumpla con las especificaciones previamente establecidas para ser considerado de buena
calidad. Dentro de cualquier proceso de elaboración de un producto o servicio si se deja a un
lado solo uno de estos enfoques será razón suficiente para obtener como resultado un producto
de mala calidad.
CONCEPTOS DE TAGUCHI
Calidad robusta.- son aquellos productos se elaboran de una manera muy uniforme a pesar de
estar expuestos a condiciones no favorables tanto de manufactura como ambientales. De esta
manera Taguchi plantea que se debería eliminar los efectos que provocan estas condiciones en
lugar de eliminar las causas ya que esto resultaría más barato logrando que de esta manera las
pequeñas variaciones presentes en los materiales y en los procesos no afecten la calidad del
producto.
Función de pérdida de calidad.- esta función nos ayuda a poder identificar todos los costos que
se relacionan con la mala calidad de un producto y nos va mostrando la forma en que aumenta
a medida que un producto se desvía de las especificaciones deseadas por un cliente. Dentro de
estos costos además se incluyen los costos relacionados con la garantía, los costos internos de
inspección, costos de reparación, costos de mantenimiento, y los costos ocasionados por la gran
cantidad de desperdicios. Cuando menor sea la perdida en la elaboración de un producto y su
posterior uso, este será más deseable para los clientes.
La calidad orientada hacia una meta.- para Taguchi cuando un producto está orientado al
cumplimiento de ciertas especificaciones es algo demasiado simple ya que solo se enfoca en que
estos productos caigan dentro de los límites de tolerancia, aceptándose todos aquellos que
estén dentro de estos límites aunque estén lejos de la meta, esto hace que la perdida (costo) se
incrementa en términos de satisfacción de los clientes. Mientras que la calidad orientada hacia
una meta hace que los productos se centren en torno a las especificaciones que se desean
cumplir, de esta manera se podrá obtener más unidades cercanas a la meta establecida.
En el grafico se puede observar como Taguchi tiene su enfoque hacia la meta ya que si los
productos que se fabrican solo se acercan a los límites de tolerancia inferior y superior
establecidos provocara que la función de pérdida de calidad sea más alta.
Las variaciones por causas naturales están presentes en todos los procesos de producción aun
cuando estos se encuentren bajo control estadístico, estas variaciones provienen de diferentes
fuentes que forman parte directa o indirecta del proceso. Estas variaciones llegan a formar un
sistema constante de causas probabilísticas que individualmente no representan mayor
diferencia pero agrupadas forman un patrón que puede representarse como una distribución.
Cuando la distribución obtenida de los resultados obtenidos de los datos del proceso se
encuentra dentro de los límites de tolerancia especificados se puede decir que el proceso se
encuentra bajo control y estas variaciones naturales son toleradas (Render y Heizer, 2014).
Dentro de un proceso las variaciones asignables son aquellas que pueden ser identificadas y
rastreadas hasta llegar a su fuente. Estas causas de variación se pueden presentar debido a
muchos factores como pueden ser la descalibracion de los equipos, falta de mantenimiento de
la maquinaria, el cansancio por parte de los operarios, mala capacitación para manejar la
maquinaria o adquirir nuevos proveedores de materias primas. El personal encargado de
administrar las operaciones o los procesos se enfrenta constantemente a dos tareas que es
asegurarse de la capacidad del proceso para operar bajo control teniendo en cuenta solo las
variaciones naturales y por otro lado poder identificar las variaciones por causas asignables y
aplicar las acciones correctivas necesarias para mantener el proceso bajo control estadístico
(Render y Heizer, 2014).
Gráficas de control
Las gráficas de control nos permiten graficar las muestras de datos obtenidos del proceso y
examinar las características que poseen para después en base a esta información poder observar
si el proceso se encuentra dentro de los límites de control establecidos. Las gráficas de control
tienen como propósito ayudarnos a distinguir cuando un proceso está trabajando solo con
variaciones naturales y cuando están presentes variaciones provocadas por causas asignables.
Un procesos puede adoptar tres tipos de resultados que los distinguen entre sí, el primero es
cuando un proceso se encuentra bajo control y también es capaz de producir dentro de los
límites de control establecidos, el segundo cuando un proceso está bajo control pero no es capaz
de producir dentro de los límites de control establecidos, y la tercera es cuando un proceso se
encuentra fuera de control (Render y Heizer, 2014).
Los tres tipos de resultados que se pueden presentar en un proceso como lo vimos
anteriormente se distinguen entre si ya que cada uno tiene sus propias características. Render
y Heizer (2014) presentan un gráfico en cual se describe con mayor detalle cada una de las
particularidades con que cuentan cada uno de estos.
Gráficas de control para variables
Cuando se trabaja con variables que poseen dimensiones continuas tales como el peso, longitud,
fuerza, temperatura o velocidad, las graficas utilizadas en estos casos son las gráficas de control
x-barra para la media y las gráficas R para el rango. La grafica x-barra nos ayuda a identificar si
han ocurrido cambios en la tendencia central del proceso que en este caso sería cambios en la
media del proceso, mismos cambios que pueden presentarse debido al desgaste natural que
tienen con el uso las herramientas, cambios en la temperatura del ambiente, procedimientos
diferentes con cada cambio de turno de los operarios o la adquisidor de nueva materia prima o
insumos. Por otro lado la gráfica R indica si existe un aumento o disminución en la dispersión de
los datos, lo cual se puede presentar debido a la descalibracion de las herramientas o
maquinarias, mal flujo de los componentes necesarios para la elaboración de un producto o
también al cansancio o descuido por parte de los operarios. Estos dos tipos de gráficos son muy
importantes al momento de monitorear las variables es por esto que se deben utilizar al mismo
tiempo para medir la tendencia central y la dispersión que son dos parámetros críticos (Render
y Heizer, 2014).
Las gráficas x-barra tienen su fundamento teórico en el teorema del límite central el cual
establece que sin importar que distribución tenga una población de datos, la distribución de las
medias de cada una de las muestras obtenidas de una población tiende a seguir una curva
normal, a medida que aumenta el número de muestras, a pesar de que una muestra (n) sea
pequeña es decir menor a cinco la distribución de los promedios seguirá una curva normal.
Dentro del teorema del límite central también se establece que la media de la distribución de
las medias será igual a la media de la población total que se denota con el símbolo μ, mientras
que la desviación estándar de la distribución de las muestras será equivalente a la desviación
estándar de la población que se divide entre la raíz cuadrada del tamaño de la muestra n (Render
y Heizer, 2014).
En el siguiente grafico se puede apreciar de manera más detallada la representación del teorema
del límite central.
Se muestran tres distribuciones poblacionales diferentes cada una con su media y desviación
estándar de las cuales si se toma una serie de muestras aleatorias de tamaño n, la distribución
resultante de estas muestras darán como resultado una distribución normal. Al tener una
distribución de las muestras normal se puede decir que el 95.45% de las veces, los promedios
de las muestras caerán dentro de 2 desviaciones estándar tomando en cuenta que el proceso
tiene sólo variaciones naturales. El 99.73% de las veces, los promedios de las muestras caerán
dentro de 3 desviaciones estándar si el proceso tiene sólo variaciones naturales. Mientras que
si un punto de la gráfica de control llega a caer fuera de los límites de control, entonces estamos
un 99.73% seguros de que el proceso ha cambiado. Toda esta teoría es fundamental para dar un
buen respaldo a las gráficas de control (Render y Heizer, 2014).
Si queremos determinar los límites de control para la gráfica de la media debemos conocer la
desviación estándar de la población de un proceso a partir de datos históricos, si cumplimos con
este requisito podemos aplicar las siguientes formulas:
Muchas de las veces no tenemos disponibles las desviaciones estándar del proceso por lo que
en estos casos se puede calcular los límites en base a los valores del rango promedio para esto
existen establecidos ciertos valores en tablas estandarizadas para hacer posible estos cálculos.
El rango se obtiene de la diferencia entre el valor más grande y el valor más pequeño que se
obtienen de las muestras. Las formulas y la tabla necesaria para realizar estos cálculos son los
presentados a continuación:
𝐿𝐶𝑆 = X +A2 R
𝐿𝐶𝐼 = X −A2 R
Donde
A pesar de que el promedio del proceso este aparentemente bajo control, la dispersión del
proceso podría no estarlo debido a fallas en las maquinarias lo que ocasionaría que existan
grandes diferencias entre piezas fabricadas lo que daría como resultado altas variaciones en las
muestras obtenidas del proceso. Las gráficas de control de rangos juegan un papel muy
importante ya que permiten observar la variabilidad dentro del proceso su teoría se basa en la
misma aplicada a las gráficas de control de promedios. Para establecer los límites de control
para la gráfica de rangos se aplica las siguientes formulas:
𝐿𝐶𝑆𝑅 =D4 R
𝐿𝐶𝐼𝑅 = D3 R
Donde
Las gráficas x-barra y la gráfica R imitan dos parámetros que definen a una distribución normal
las cuales son la media y el rango, siendo que por un lado la gráfica x-barra es muy sensible a
cambios producidos en la media del procesos, por otro lado la gráfica R es sensible a los cambios
que se producen en la desviación estándar del proceso. Cuando usamos estas dos graficas
podemos dar un seguimiento muy preciso y observar los cambios que ocurren en la distribución
de cualquier proceso (Render y Heizer, 2014).
El uso de estas graficas es muy importante y por tal motivo se las debe emplear de una manera
correcta es por esto que Render y Heizer (2014) ponen en énfasis cinco pasos fundamentales
que se deben seguir al momento de emplear las gráficas y R, los mismos que se describen a
continuación: