Está en la página 1de 23

Los verdaderos inicios del control estadístico de la calidad se encuentran en la Society of

Industrial Quality Statisticians (SIQS), la Society of Quality Control Engineers, la Federated


Societies y la Society for Quality Control, nacidas a principios de los años 40.(pag7 parr 2)

Cesar Camisón en su libro gestión de la calidad hace referencia que: “Los verdaderos inicios del
control estadístico de la calidad se encuentran en la Society of Industrial Quality Statisticians
(SIQS), la Society of Quality Control Engineers, la Federated Societies y la Society for Quality
Control, nacidas a principios de los años 40” (2007:7).

La estructuración completa del movimiento por la calidad tuvo que esperar hasta la construcción
de una red mundial de especialistas en el campo. Quizás, el primer antecedente fuese el Six
Men Board, constituido en 1966 por Armand Vallin Feigenbaum con los japoneses Kaoru
Ishikawa y Kiminobu Kogure, el británico F. Nixon, el francés Georges Borel y el estadounidense
Jack Lancaster. Este grupo se transforma pronto en la International Academy for Quality
(IAQ) (p 7 prr 3)

En el libro gestión de la calidad Camisón señala que la conformación de los grupos con iniciativas
hacia la calidad no fueron constituidos sino hasta tener establecida una amplia organización de
expertos en la materia: “el primer antecedente fuese el Six Men Board, constituido en 1966
por Armand Vallin Feigenbaum con los japoneses Kaoru Ishikawa y Kiminobu Kogure, el británico
F. Nixon, el francés Georges Borel y el estadounidense Jack Lancaster” (2007:7). Posteriormente
pasando a convertirse en la international academy for Quality (IAQ).

Esta división entre dos organizaciones nacionales de calidad se superó con la llamada
a un encuentro para su unificación en febrero de 1946, que tuvo finalmente lugar con
el nombre de American Society for Quality Control (ASQC). En 1997 elimina la palabra
«control» de su nombre, adoptando la marca actual de American Society for Quality
(ASQ). (p 8 prr 2)

Actualmente, la ASQ constituye la mayor asociación profesional del mundo en pro de


la calidad, con más de 100.000 miembros, consagrada a ofrecer oportunidades de
aprendizaje, mejora de la calidad e intercambio de conocimientos (p 8 prr 3)

En febrero de 1946 se realiza un llamado a todas las organizaciones y movimientos de la calidad


a formar parte de la unificación de estos, pasando así a llamarse la American Society for Quality
(ASQC). Mientras que en el año de 1997 se realiza un cambio en el nombre de esta sociedad,
reduciendo su nombre a lo que hoy en día se conoce como la American Society for Quality (ASQ).
En la actualidad es la más grande asociación contando con expertos de todo el mundo con más
de 100.000 miembros, la cual se encarga de impartir conocimientos a favor de mejorar la
calidad. (Camisón et al, 2007:8).

Estados Unidos cuenta con otras organizaciones que incluyen entre sus objetivos
acciones en calidad. Es el caso del American Productivity & Quality Center (APQC). Es
una corporación exenta de impuestos fundada en 1977 por 11 empresas líderes (AT&T,
Arthur Andersen, Browning-Ferris Industries, Campbell Soup Company, DRI/McGraw-
Hill, General Motors Corporation, Hewlett-Packard Company, Honeywell, IBM
Corporation, Price Waterhouse y Xerox), de la cual forman parte ahora más de 500
miembros. Su objetivo global es ayudar a sus organizaciones asociadas a mantener su
ventaja competitiva implantando esfuerzos de mejora continua. (p 10 prr 1)
Otro pilar esencial del movimiento mundial por la calidad es la Union of Japanese
Scientists and Engineers (JUSE), creada en 1946 como fundación por la Science and
Technology Agency (más tarde reformada como Ministry of Education, Culture, Sports,
Science and Technology) del gobierno japonés5. Su primer presidente fue el propio
Ishikawa. Su sede está en Tokio. (p 10 prr 2)

Por otro lado en los Estados Unidos existen otras organizaciones enfocadas en la calidad que
tienen sus propios objetivos, una de ellas es la American Productivity & Quality Center (APQC)
la cual menciona Camisón: “Es una corporación exenta de impuestos fundada en 1977 por 11
empresas líderes (AT&T, Arthur Andersen, Browning-Ferris Industries, Campbell Soup Company,
DRI/McGraw-Hill, General Motors Corporation, Hewlett-Packard Company, Honeywell, IBM
Corporation, Price Waterhouse y Xerox)”(2007:10). En la actualidad son más de 500 miembros
que tienen como principal objetivo ayudar a las organizaciones que están asociadas a mantener
su ventaja competitiva a través de lo que se conoce como la mejora continua. Otra de las
organizaciones más importantes de la calidad es la Union of Japanese Scientists and Engineers
(JUSE), que tuvo su formación en 1946 y la cual tuvo al propio Ishikawa como su primer
presidente.

La European Organization for Quality (EOQ) es una organización sin ánimo de lucro
constituida en 1956 en La Haya, cuando el control estadístico de los procesos se
extiende por el continente europeo bastante después de haber penetrado en el Reino
Unido. Fue un acto voluntad de las asociaciones nacionales de Francia, Holanda, Reino
Unido, Italia y Alemania Federal. Inicialmente, tomó el nombre de European
Organization for Quality Control, transformado posteriormente por el actual siguiendo el
ejemplo de la ASQ. (p 11 prr 3)

la EOQ tiene como misión «mejorar la competitividad y el desarrollo sostenible europeo


a través de la promoción de la Política de Calidad Europea; apoyar a los miembros en
la promoción y el despliegue de la Gestión de la Calidad; y facilitar el
desarrollo y el intercambio de información, conocimiento y experiencia en teorías y
técnicas de calidad».(p 11 prr 4)

En Europa se crea en 1956 la European Organization for Quality (EOQ) la cual se hace presente
como una organización sin ánimos de lucro, una vez que el control estadístico de procesos ya
estaba bastante extendido por todo el continente las asociaciones de Francia, Holanda, Reino
Unido, Italia y Alemania Federal deciden por su propia voluntad formar parte de esta
organización. Teniendo como misión mejorar la competitividad y ayudar en el desarrollo
sostenible de Europa mediante la fomentación de las políticas de calidad, además de compartir
información, conocimientos y técnicas de calidad entre los miembros de la organización
(Camisón et al, 2007:11).

Otra organización internacional destacada es la Fundación Iberoamericana para la


Gestión de la Calidad (FUNDIBEQ) (Fundibeq, 2003a). FUNDIBEQ fue creada en 1998
por España y otros 20 países de Iberoamérica como organización supranacional sin
ánimo de lucro. Su fundación tuvo lugar durante la VIII Cumbre Iberoamericana de Jefes
de Estado y de Gobierno, celebrada en Oporto (Portugal). Su misión es «promover la
gestión global de la calidad como vía segura de progreso sostenible y bienestar social y
como instrumento que genera la confianza necesaria que permite el reconocimiento
mutuo y la libre circulación de productos y servicios. (p 14 prr 2)

Por parte de Iberoamérica se creó la fundación iberoamericana para la gestión de la calidad


(FUNDIBEQ) en 1998, de la cual formaban parte España y otros 20 países. Tenían como misión
promover la gestión de la calidad como medio para para alcanzar el bienestar de la sociedad a
través de una libre circulación de productos y servicios (Camisón et al, 2007:14)

Junto a estas asociaciones sin ánimo de lucro, consagradas a la promoción y al


desarrollo de la Gestión de la Calidad, existen otras organizaciones con propósitos más
regulados. Las tres organizaciones de estandarización principales hoy en día son la
International Electrotechnical Commission (IEC), la International Telecommunication
Union (ITU) y la International Organization for Standardization (ISO). (p 15 prr 4)
La International Electrotechnical Commission (IEC) fue establecida en 1906 y radica en
Londres. Integra un cierto número de comités técnicos especializados en la elaboración
de normas técnicas en los campos eléctrico, electrónico y automatización, que sirven de
base para la estandarización nacional y como referencias cuando se negocian contratos
internacionales. (ISO). (p 15 prr 5)
La más importante de ellas es la International Organization for Standardization (ISO)7.
Sus antecedentes se encuentran en la International Federation of the National
Standardizing Associations (ISA), constituida en 1926 y cuya actividad finalizó en 1942.
Tras la segunda guerra mundial, la misión de ISA fue asumida por el Comité de
Coordinación de Normas de la ONU, embrión de la ISO. (p 16 prr 2)
Desde su nacimiento hasta diciembre de 2003, ISO ha publicado 14.251 normas
internacionales en todas las actividades económicas, que se extienden en 490.431
páginas. Aunque la principal actividad de ISO es el desarrollo de estándares técnicos
para productos y procesos, aportando soluciones a problemas básicos de la producción
y la distribución, también tiene relevantes repercusiones económicas, medioambientales
y sociales para toda la sociedad plasmadas en sus normas de sistemas de gestión (ISO
9000 e ISO 14000 principalmente). (p 16-17 prr 4)
American National Standards Institute (ANSI). Es una organización privada sin ánimo
de lucro que administra y coordina el sistema de normalización voluntaria en Estados
Unidos. Su misión es «incentivar la competitividad global de Estados Unidos y el modo
de vida americano, a través de la promoción, estímulo y salvaguardia de la integridad
del sistema de normalización voluntaria». ANSI es el representante oficial de Estados
Unidos en ISO e IEC. (p 19 prr 5)

Existen además las organizaciones que se encargan de la normalización, estandarización y


regulación siendo las más importantes o principales la International Electrotechnical
Commission (IEC), la International Telecommunication Union (ITU) y la International
Organization for Standardization (ISO). Son encargadas de la creación de normas técnicas
mediante las cuales se implementa una estandarización que son utilizadas a nivel internacional,
siendo la más importantes en la actualidad las normas ISO que fueron constituidas en 1926 por
la International Federation of the National Standardizing Associations (ISA). La principal
actividad realizada por ISO se enfoca en el desarrollo de estándares técnicos para los diferentes
componentes, productos y también para los procesos, ayudando de esta manera a llevar un
proceso más adecuado que cumpla con todas las características de calidad necesarias. Por parte
de Estados Unidos están la American National Standards Institute (ANSI), la cual también es una
de las más importantes a nivel internacional y es la encargada de cordinar el sistema de
normalización americano. (Camisón et al, 2007:15-19).
Gestión de la calidad

El enfoque técnico de la calidad, bien plasmado en el control estadístico de procesos,


parte de un concepto de la Gestión de la Calidad como una colección de métodos,
utilizables puntual y aisladamente para el control de la calidad de productos y procesos.
(p 50 prr 2)

La Gestión de la Calidad asume una visión mecanicista cuando se define como un


conjunto de procesos y herramientas que buscan la mejora de la eficiencia organizativa,
el control estadístico de procesos, la conformidad con las especificaciones o la
reducción de la variabilidad. (p 55 prr 1)

En definitiva, la Gestión de la Calidad se ha construido históricamente como una


compleja combinación de ideología y métodos, que se han aplicado en la praxis para
modelizar metodologías con que afrontar problemas complejos de dirección de
organizaciones. (p 55 prr 5)

Así contemplada, la Gestión de la Calidad es un área de especialización gerencial y


técnica que da lugar a la aparición en las organizaciones de profesionales
especializados. Como una función de la dirección, la Gestión de la Calidad se ha
convertido en campo para una profesionalización directiva. La implantación exitosa de
la Gestión de la Calidad requiere los conocimientos de un especialista. (p 56 prr 3)

La gestión de la calidad tiene diferentes enfoques el primero de ellos es el enfoque técnico de


la calidad, este hace referencia al control estadístico de procesos y parte como un conjuntos de
métodos que son utilizados netamente para el control de la calidad tanto de los productos como
de los procesos. Si bien la gestión de la calidad tiene una perspectiva muy mecánica cuando se
habla de herramientas y procesos para mejorar la eficiencia o realizar un control estadístico de
procesos que puedan ayudar a cumplir con las especificaciones de un producto y a su vez reducir
la variabilidad de dicho proceso. No se puede tener esta visión tan cerrada ya que la gestión de
la calidad va más allá de solo los procesos, apuntando a un área de especialización gerencial
haciendo que sea necesario la formación de especialistas que puedan ser capaces de asumir
estas responsabilidades. (Camisón et al, 2007:50-56).

El enfoque humano de la Gestión de la Calidad surge en Japón posteriormente y como


reacción al enfoque técnico. Esta era tiene como pilar convertir a los trabajadores en el
eje del proceso de gestión y mejora de la calidad, actuando sobre su forma de pensar,
incrementando su participación en la resolución de problemas, e invirtiendo en su
formación. (p 81 prr 3)
El enfoque estratégico En un primer momento, un conjunto de empresas líderes
empiezan a prestar atención a la calidad del servicio y a la satisfacción del cliente. En
esta primera etapa del enfoque estratégico en la Gestión de la Calidad, la preocupación
por la satisfacción del cliente relega a un segundo plano la obsesión por la eficiencia. (p
83 prr 2)

El enfoque humano de la gestión de la calidad hace su primera aparición en Japón el cual se


enfoca en los trabajadores y como estos pueden llegar a ser un pilar fundamental dentro del
proceso y mejora de la calidad. Se invierte más en la formación y capacitación de las personas,
se trabaja más en sus necesidades y en la forma de pensar de cada uno de ellos ayudándoles a
ser más autónomos en la toma de decisiones y en la resolución de problemas. El enfoque
estratégico la eficiencia queda en segundo plano, aquí se llega a dar prioridad a la calidad del
servicio y principalmente a alcanzar la satisfacción plena del cliente (Camisón et al, 2007:81-83).

La primera generación en la historia de la calidad se caracterizó por tener como centro


de preocupación la calidad del producto. Esta primera visión de la calidad tiene un
ámbito de interés reducido, pues se asocia básicamente a la inspección o auditoría del
producto tras su fabricación. La labor de la inspección se limita a comprobar si las piezas
y productos son conformes con las especificaciones preestablecidas, y en caso negativo
desecharlos o reprocesarlos. Este enfoque de la calidad no contiene, pues, elementos
de prevención ni planes de mejora. Además, comporta elevados costes de no calidad.
(p 84 prr 1)
El nacimiento de la calidad como función industrial se produce con la transición desde
el sistema artesanal, primero al putting out system, y después a la fábrica. Los artesanos
eran tanto inspectores como entrenadores. Gracias a la producción manual y a la
ausencia de división del trabajo, así como a su profundo conocimiento del producto, de
su oficio y de sus clientes, el artesano podía controlar continuamente la idoneidad de
cada uno de los componentes y fases del proceso, rechazando los defectos. El control
de calidad se reafirmaba en el momento final, no entregando un producto hasta que
cumpliese las especificaciones ancestrales del oficio. Por otro lado, el artesano
transmitía su conocimiento a sus aprendices garantizando la cadena de la calidad. La
innovación era escasa,y asume acríticamente métodos heredados por la tradición del
oficio. Por último, su enfoque estaba inclinado hacia el proceso, en vez de hacia el
cliente. (p 84 prr 2)

La primera generación en la historia de la calidad tenía establecido como prioridad la calidad del
producto terminado. Lo que se hacía era inspeccionar el producto una vez que ha terminado su
proceso de elaboración para verificar si cumple con las especificaciones previamente
establecidas y en caso de no llegar a cumplirlas dicho producto era desechado o reprocesado.
Esto era motivo para que existan altos costes de no calidad debido alto porcentaje de producto
desechado o reprocesado y a la falta de planes de mejora o de prevención. La calidad como
función industrial aparece con el cambio del sistema artesanal a la fábrica. Los artesanos eran
los encargados de realizar la inspección de sus propios productos ya que tenían pleno control
de todo el proceso, una vez finalizado el proceso se encargaban de verificar que cumpliese con
las especificaciones que debía tener el producto tal como había sido elaborado por
generaciones. Estos conocimientos eran transmitidos a sus aprendices garantizando asi que se
siga la línea de producción establecida, por este motivo había escasa innovación y era
estrictamente enfocado hacia el proceso más no hacia el cumplimiento de las necesidades del
cliente (Camisón et al, 2007:84).

El sistema americano de producción intercambiable8 crece con gran rapidez en Estados


Unidos desde 1830. Se trata de la fabricación de productos idénticos en grandes
cantidades, manteniendo los parámetros del producto final en un margen de tolerancia
muy estrecho. El modelo de referencia en este modelo productivo es la fábrica
construida por Henry Ford entre 1908 y 1910. El sistema fordista supuso lecciones
trascendentales sobre la producción en masa acortando tiempos, la estandarización y
la mejora continua. (p 86-87 prr 2)

La necesidad de asegurar la continuidad y la intercambiabilidad de la producción, junto


con la frecuencia de defectos y el gran número de trabajadores por capataz, obligaron
a implantar una inspección a gran escala, donde cada pieza era controlada, y
consiguientemente aceptada o rechazada. El cuerpo de inspectores de calidad a tiempo
completo crece por ello de forma notable, hasta formar unidades organizativas de un
tamaño equiparable al número de productores directos, aunque siguen dependiendo
jerárquicamente del departamento de producción. Junto al inspector de calidad, nace
también el rol de especialista en calidad, cuya responsabilidad era diseñar y seleccionar
las inspecciones a realizar así como el diseño de equipamientos para los tests. (p 87 prr
2)

En Estados Unidos desde 1830 empieza a crecer a gran escala el sistema de producción
intercambiable. Este sistema se trata de la producción en masa de productos de iguales
características cuidando que se cumplan los parámetros del producto final con un margen de
tolerancia muy estrecho. Como menciona Camisón: “El modelo de referencia en este modelo
productivo es la fábrica construida por Henry Ford entre 1908 y 1910. El sistema fordista supuso
lecciones trascendentales sobre la producción en masa acortando tiempos, la estandarización y
la mejora continua” (2007:86-87). Debido a la necesidad de controlar la producción y asegurar
la calidad nace la inspección a gran escala la cual era muy deficiente ya que se controlaba cada
pieza de forma individual formándose así grupos de inspectores de calidad que igualaban en
número al de trabajadores de la producción. Aquí también nace el rol de especialista en calidad
que pasa a ser la persona encargada del diseño y las inspecciones que se realizan además de las
herramientas que serán utilizados para la realización de estas inspecciones.

El crecimiento continuo de la escala de producción y la complejidad tecnológica de


ciertas industrias hacen la inspección masiva cada vez más complicada. Las primeras
disfuncionalidades se observan en plantas productivas con nuevas tecnologías, que
plantean nuevos problemas de calidad que la inspección no puede atajar. . (p 88 prr 1)

La aplicación de una descripción no determinista de los problemas productivos requirió


el desarrollo de nuevas técnicas matemáticas, así como de los conceptos de
probabilidad y estadística. El trabajo inicial que logró una generalización en las
aplicaciones industriales, abriendo el camino a seguir en el futuro, fue el desarrollo de
sistemas para el control estadístico de la calidad (CEC). (p 88 prr 2)

El presidente de AT&T, a la sazón un estadístico llamado Walter Gifford, encomendó a


Western Electric la tarea de encontrar un método más fiable y económico de asegurar
la producción de componentes eléctricos que la inspección total. Es entonces cuando,
con el fin de estudiar los problemas de calidad ya mencionados y desarrollar soluciones,
se creó uno de los primeros departamentos de inspección estadística de la calidad, que
más tarde se convirtió en el de aseguramiento de la calidad. Esta iniciativa fue el germen
de dos líneas de trabajo paralelas, la primera de las cuales insistía y perfeccionaba el
enfoque de inspección, mientras que la segunda abría el camino del control estadístico
de procesos. (p 88 prr 3)

Con el crecimiento a gran escala de la producción y la aparición de nuevas y más complejas


tecnologías aplicadas en las industrias crecen también los problemas que las inspecciones
tradicionales no pueden controlar siendo cada vez más complicado. Esto hizo que se desarrollen
nuevas técnicas matemáticas, así como también la introducción de conceptos de probabilidad y
estadística, logrando así el desarrollo de sistemas enfocados al control estadístico de calidad
(CEC). El presidente de AT&T encomendó a Western Electric un método más fiable y económico
de asegurar la producción de componentes eléctricos dando así con el desarrollo de uno de los
primeros departamentos de inspección estadística de calidad. Con esto se daba prioridad al
perfeccionamiento de las inspecciones pero también se daba un nuevo enfoque que era el
control estadístico de procesos (CEP) (Camisón et al, 2007:88).
En primer lugar, el grupo de ingenieros de inspección de Bells, sobre todo Harold F.
Dodge y Harry G. Romig, pusieron en práctica desde 1920 un conjunto de teorías
estadísticas para desarrollar planes de muestreo por aceptación Dado que el muestreo
por aceptación tenía el riesgo de que se rechazaran lotes con un grado de calidad
aceptable, o de aceptar lotes que debieran haber sido rechazados, desarrollaron una
segunda innovación en su famosa obra Sampling Inspection Tables publicada en 1944.
Estas tablas eran utilizables por personal sin formación estadística para elaborar planes
de muestreo (p 90 prr 1)

El muestreo estadístico ofrece ayuda para realizar la inspección al final de la línea la


consolidación de este enfoque fue la considerable reducción del tamaño de las unidades
de inspección de calidad en las empresas, al permitir a un número reducido de personas
controlar grandes volúmenes de producción seleccionando muestras aleatorias
reducidas, que permitían conocer la probabilidad estadística de defectos en un lote. (p
90 prr 2)

Una segunda línea de investigación, derivada del grupo de ingenieros de Bell Labs, fue
liderada por el físico Walter A. Shewhart, considerado unánimemente como el padre del
CEC, y supuso el nacimiento de la orientación hacia el proceso. Esta nueva orientación
centra el control en el proceso, en los problemas de línea, y no sólo en el producto al
final de ésta. El nuevo enfoque técnico que se construye sobre estos mimbres se basa
en el control estadístico de procesos (CEP). (p 90 prr 3)

Los ingenieros de Bells principalmente Harold F. Dodge y Harry G. Romig desde 1920 empezaron
a trabajar en un conjunto de teorías estadísticas dando así con el desarrollo de los llamados
planes de muestreo por aceptación. Debido a que este tipo de muestreo no era muy confiable
ya que la probabilidad de que se rechacen lotes que se debían aceptar o viceversa era muy alta
se vieron en la necesidad de mejor este tipo de muestro, dando así paso a la creación de las
tablas de muestro de inspección que estaban dirigidas a las personas que no tenían
conocimientos básicos de estadística lo cual les permitía poder realizar planes de muestreo con
mayor facilidad. Este tipo de muestreo estadístico fue de gran utilidad ya que permitía realizar
las inspecciones con mayor facilidad, debido a que se reducía considerablemente el tamaño de
las muestras a ser inspeccionadas ayudando a que se pueda controlar grandes cantidades de
producción, mediante la toma de muestras aleatorias que ayudarían a conocer la probabilidad
estadística de los defectos que tiene cada lote producido. El físico Walter A. Shewhart lidera una
segunda investigación en los laboratorios de Bells que esta vez estaría orientada en el proceso
y en el control del mismo, las dificultades que se pueden presentar en las líneas de producción
y ya no solo en el producto terminado. Este nuevo enfoque se conocería como el control
estadístico de procesos (CEP) (Camisón et al, 2007:90).

La principal contribución de Shewhart fue reconocer que el proceso de producción era


de naturaleza variable, que la variabilidad entre elementos teóricamente «idénticos» es
consustancial a la producción industrial, debido a causas aleatorias como diferencias en
las materias primas, problemas con los equipos o grados de destreza diferentes entre
trabajadores. Entonces el problema fundamental, como lo definió Shewhart, era
determinar qué variación era aceptable y cuál no lo era –el rango de variación
aceptable–, y determinar sus causas para gestionarlas eficazmente.(p 91 prr 1)

Para atajar esta cuestión, Shewhart aplicó la probabilidad a fin de desarrollar técnicas
estadísticas sencillas que permitiesen fijar los límites de variación aceptable, así como
los gráficos de control X y R (en 1924) como método para distinguir entre la variación
normal, producto de causas aleatorias, y la variación excesiva, cuyas causas se podían
determinar. (p 91 prr 2)
A partir de sus investigaciones Shewhart puede reconocer que la variabilidad en los procesos de
producción era algo natural debido a que existían muchas causas netamente aleatorias que
podían estar inmersas en cada una de las etapas del proceso empezando desde las diferencias
existentes entre las materias primas, defectos de la misma maquinaria o herramientas de
trabajo y también las destrezas o capacitación de cada uno de los trabajadores al momento de
realizar sus actividades. El problema fundamental derivado de esto era poder encontrar de entre
todos estos tipos de variación cual era aceptable y cual debía ser el rango permitido de variación
dentro del proceso, una vez logrado esto poder encontrar sus causas y tratar de reducirlas
eficazmente. Con la finalidad de resolver todas estas interrogantes Shewhart aplico la
probabilidad que lo ayudarían a desarrollar nuevas y más sencillas técnicas para encontrar así
los límites de variación aceptables, dando así lugar a l aparición de los gráficos de control X y R
en el año de 1924. Con esta nueva técnica se podría distinguir entre la variación normal que se
debía a causas aleatorias y la variación excesiva que era fácilmente determinada en el proceso
(Camisón et al, 2007:91).

Quizás la última tendencia del enfoque técnico sea Seis Sigma (Six Sigma, 6). Se trata
de un programa dirigido a la práctica eliminación de defectos, fuertemente inspirado en
las ideas de Taguchi. Seis Sigma fue aplicado inicialmente por Motorola como resultado
de una investigación de uno de sus ingenieros, Mikel Harry, en su división de electrónica
localizada en Phoenix en 1985. el concepto fue ideado como una estrategia para lograr
que Motorola pudiese pervivir en el mercado de componentes electrónicos, fuertemente
amenazado por la competencia japonesa. (p 115 prr 2)

La expansión del concepto arrancó con la creación del Six Sigma Research Institute en
la Motorola University (Schaumburg, IL), donde Mikel Harry desarrolló una metodología
de mejora continua de la calidad que combinaba métodos estadísticos ya conocidos
(como el diseño de experimentos, el análisis modal de fallos y efectos, las siete
herramientas básicas de control de calidad establecidas por Ishikawa, CEP o diseño
estadístico de experimentos) pero de una forma original. (p 115 prr 3)

La lista de grandes empresas que han aplicado este sistema es ya interminable, y hoy
en día constituye el método de Gestión de la Calidad más aplicado en las corporaciones
de todo el mundo, por delante incluso de la GCT. (p 115 prr 4)

Hoy en día la última tendencia del enfoque técnico es el llamado seis sigma (six sigma). Está
dirigido básicamente a la eliminación de defectos, lo cual fue fuertemente inspirado en las ideas
de Taguchi. Motorola fue la primera empresa en aplicar este método en su afán de no decaer
en el mercado de componentes electrónicos que se veía en riesgo debido a la fuerte
competencia por parte de los japoneses. Fue desarrollada por Mikel Harry dio inicio a esta nueva
metodología que se basaba en la mejora continua de la calidad mediante la combinación de
métodos estadísticos que ya eran conocidos como son el diseño de experimentos, el análisis
modal de fallos y efectos, las siete herramientas básicas de control de calidad establecidas por
Ishikawa y el control estadístico de procesos solo que se les dio una forma de aplicabilidad más
original (Camisón et al, 2007:115).

CONCEPTOS

PROCESO el conjunto de recursos y actividades interrelacionados que posibilitan la


transformación de elementos de entrada en resultados. (p 148 prr 1)
Todo proceso puede dividirse en subprocesos, que son partes bien definidas de un
proceso. Los procedimientos simbolizan la estructura de subprocesos que, integrados,
forman un proceso. La estructura de subprocesos de un proceso no es única, existiendo
potencialmente distintas tecnologías o métodos para desarrollar un proceso que pueden
dar lugar a la identificación de subprocesos distintos. (p 148 prr 3)

Las diferentes perspectivas conceptuales de la calidad pueden organizarse en dos


categorías, según hablen de calidad objetiva y calidad subjetiva(p 148 prr 5)

La calidad objetiva deriva de la comparación entre un estándar y un desempeño,


referidos a características de calidad medibles cuantitativamente con métodos
ingenieriles o tecnológicos. (p 148-149 prr 5)

la calidad subjetiva se basa en la percepción y en los juicios de valor de las personas,


y es medible cualitativamente estudiando la satisfacción del cliente. (p 148-149 prr 5)

calidad estatica y calidad dinámica la calidad no es un blanco fijo que se alcanza una vez
que se logra cierto nivel, sino un proceso de mejora continua. (p 149 prr 2)

calidad absoluta y calidad relativa La calidad se valora entonces de forma absoluta, con
independencia de la persona, y se mide de forma incontestable por la distancia entre la
calidad realizada y la calidad programada. (p 149 prr 3)

La definición de calidad es relativa ya que cada empresa deberá depender de las


expectativas y necesidades de sus clientes, pudiendo variar su identificación de las
dimensiones que incorpore en cada caso. (p 149 prr 4)

Calidad interna y calidad externa

Los conceptos absolutos de calidad son también definiciones internas para mejorar la
conformidad de productos y procesos, de las cuales está ausente el análisis del entorno
competitivo y de los mercados. Este concepto de calidad interna hace hincapié en la
mejora de la eficiencia interna para lograr laconformidad con las especificaciones en los
procesos y la reducción de los costes de no calidad. (p 149 prr 5)

La perspectiva externa, nacida con el auge de mercados de compradores, enfatiza la


eficacia, entendida en el sentido de que la principal prioridad de la empresa debe ser
satisfacer las expectativas de los clientes, aun a costa de relegar la eficiencia. (p 150 prr
1)

Concepto técnico de calidad como conformidad con las especificaciones

la definición de calidad debe ante todo servir para medir la calidad del producto de modo
que sea posible un análisis continuo de su evolución en el tiempo. Las medidas son
entonces tomadas continuamente para determinar la conformidad con aquellas
especificaciones.La no conformidad detectada es la ausencia de calidad. (p 154-155 prr
3)

Considera la calidad como un conjunto de características medibles que se requieren


para satisfacer al cliente. (p 155 prr 1)

Concepto estadistico de calidad como uniformidad


El CEP acepta que una pieza tiene calidad cuando sus características están dentro de
los límites de tolerancia superior e inferior de la especificación. Pero la conformidad con
las metas de las especificaciones no es suficiente como base para una Gestión de la
Calidad realmente eficaz. (p 156 prr 4)

El concepto estadístico de calidad como uniformidad sigue centrado en los aspectos


internos de la producción, pero se enfoca a lograr productos libres de errores que
satisfagan con precisión las metas de las especificaciones de diseño. El concepto
estadístico de calidad gira entonces alrededor de los procesos (p 156-157 prr 6)

Calidad
Al evaluar las características del producto fabricado, el término calidad se utiliza para
indicar el nivel de comportamiento del producto. Generalmente, el comportamiento
deseado se mide en términos de los requisitos especificados.

Se conoce como calidad a la capacidad que tiene el producto para cumplir con las
especificaciones previamente establecidas para el mismo, y como se comportan cada
una de sus características. Cada uno de los componentes del producto deben ser
sometidas a pruebas para comprobar así el cumplimiento de los límites de tolerancia
permitidos, de esta manera se podrá probar si tiene calidad aceptable o deberá ser
rechazado (Lester et al, 1989:25).

Control
El control de la calidad abarca dos aspectos principales. El primero se refiere a la
capacidad y a la medición real de las características de la calidad que son significativas
en cuanto al comportamiento del producto. El segundo se refiere a proporcionar los
caminos que conducen a la acción correctora en todos aquellos casos en los que las
mediciones de la calidad indican un comportamiento significativamente fuera de
estándar en términos de materiales de recepción, fabricación de componentes o montaje
final.

El control hace referencia a todas las acciones que se realizaran para dar seguimiento
a un producto las cuales van desde la medición de las características que este posee y
observar cuál es su comportamiento una vez sometido a diferentes pruebas. Una vez
esto hecho se podrán aplicar todas las acciones correctoras de ser el caso que no se
lleguen a cumplir con las especificaciones, de otro modo el producto que si las cumpla
será considerado como aceptable y no habrá la necesidad de realizar ninguna otra
acción (Lester et al, 1989:25).

Aplicación de sistemas
El proceso de control de calidad tiene lugar dentro del marco de la aplicación de
sistemas. El objetivo del sistema de control de calidad es generalmente la consecución
de unos niveles particulares de calidad, tal como se indica en las especificaciones y
tolerancias. Las características importantes de estas especificaciones incluyen la
descripción exacta del producto, los límites claramente definidos de varias
características, los estándares de las medidas directas (tales como las dimensiones) o
medidas indirectas (tales como contenido de humedad, deducido a partir de las lecturas
de la resistencia eléctrica), y la diferenciación entre características de calidad mayores
o críticas y los defectos menores o menos importantes. La vía para la consecución del
objetivo del sistema de control de calidad pasa a través del equipo de producción, el
personal, y los servicios de procesamiento, operaciones y similares. El seguimiento es
el paso final, por medio del cual se garantiza el control de calidad.

Los sistemas de control de calidad se encargan de estructurar los diferentes niveles de


calidad que posee un producto y realizar una separación entre los de mayor importancia
y los menos importantes. Siendo las más importantes las relacionadas a la
características del producto, la descripción exacta y los límites de tolerancia que cada
una de estas debe cumplir, además de ciertas medidas estandarizadas que pueden ser
las dimensiones, el peso y otras especificaciones propias del producto. Todo este
proceso está en manos del departamento de producción encargado del proceso de
elaboración y aplicación de cada una de estas características que definen al producto
(Lester et al, 1989:26-27).

Programa del control de calidad


Un programa es la estructura global que sirve para la definición y el análisis de los
objetivos del sistema.

Un programa de control de calidad abarca todos los procedimientos que serán


necesarios para el seguimiento y la comprobación de los objetivos planteados por el
sistema de calidad. Estos procedimientos empiezan por revisar que las especificaciones
del producto se ajusten a las necesidades del cliente y que cumplan con las normas de
estandarización, una vez realizado esto se debe documentar todas las operaciones que
se realizan durante el proceso de elaboración con la finalidad de que en caso de
presentarse problemas poder encontrarlos directamente y aplicar las acciones
correctivas necesarias. Se deben describir todas las etapas u operaciones que se
realizan en todo el proceso, esto ayuda a que se identifique en que segmento se produce
cierta característica de calidad. Los auditores de calidad toman toda esta información al
momento de realizar las inspecciones y comprobar el cumplimiento de especificaciones,
registrando los hallazgos encontrados a manera de historial que será útil para la
comprobación y mejora de los procesos cuando se determinan problemas de larga
duración y determinar los lugares donde se deberá aplicar las acciones correctivas
necesarias (Lester et al, 1989: 27-28).

Revisión de las especificaciones


En el sentido más amplio, la revisión de las especificaciones es un procedimiento
sistemático para hacer un repaso global de los datos del diseño de un producto desde
el punto de vista de su adecuado funcionamiento y fabricación barata. Las
especificaciones de las materias primas y de los métodos operatorios deben planificarse
para que el coste sea el menor compatible con las especificaciones de la calidad.

La revisión de las especificaciones es un procedimiento sistemático en el cual se ponen


a discusión toda la información y datos que debe poseer un producto. Estos datos deben
ser considerados de acuerdo al comportamiento y uso que tendrá este producto, que
componentes harán parte de este y la manera en como se lo fabricara es decir los
métodos operarios que se aplicaran para su elaboración (Lester et al, 1989: 33).

KAORU ISHIKAWA

Herramientas estadísticas

llamó las Siete Herramientas del CC en memoria de las famosas siete armas del
guerrero-sacerdote japonés de la era Kamakura, Benkei, que le permitieron triunfar en
las batallas; así también, las Siete Herramientas del CC, si se utilizan hábilmente,
permitirán que se resuelva el noventa y cinco por cien de los problemas de los puestos
de trabajo. En otras palabras, las herramientas estadísticas intermedias y avanzadas
se necesitan sólo en un cinco por cien de los casos.

Las herramientas estadísticas para el control de calidad planteadas por Ishikawa fueron
siete en honor al mismo número de armas de un guerrero ancestral de la historia
japonesa llamado Kamakura Benkei, con las cuales pudo salir triunfante de las batallas.
Estas herramientas aplicadas de una manera correcta serían capaces de ayudar a
resolver el noventa y cinco de los problemas que se presentan en las empresas, es decir
que solo se necesitaría aplicar métodos más avanzados de estadística para resolver el
cinco por ciento restante de los problemas (Ishikawa, 1994: 111).

Estas herramientas son las siguientes:

1. Los diagramas de Pareto


2. Los diagramas de causa y efecto (no son estrictamente una herramienta estadística)
3. La idea de estratificación (mencionada en todos los capítulos)
4. Hojas de comprobación
5. Histogramas y distribuciones de frecuencia
6. Diagramas de dispersión (los conceptos de correlación y regresión).
7. Gráficos y gráficos de control

Además de estas siete herramientas conocidas como métodos estadísticos básicos Ishikawa
menciona que también se deben aplicar los métodos intermedios que deberían ser dirigidos
para los ingenieros o las personas que tienen una mayor preparación, siendo estos métodos los
siguientes:

1. Distribución de los estadísticos, estimación estadística y pruebas estadísticas.


2. Estimación del muestreo, teoría del error estadístico, y aditividad de la varianza.
3. Inspección por muestreo estadístico.
4. El uso del papel probabilístico binomial.
5. Una introducción al diseño de experimentos (uso simple de la disposición ortogonal
incluyendo las tablas de contingencia; análisis de la varianza).
6. Correlación simple y análisis de regresión.
7. Técnicas sencillas de fiabilidad.
8. Métodos sencillos de ensayos sensoriales.

Mientras que para las personas con un nivel más avanzado y personas especializadas en control
de calidad están los siguientes métodos:

1. Diseño avanzado de experimentos.


2. Análisis multivariante.
3. Técnicas avanzadas de fiabilidad.
4. Métodos avanzados de ensayos sensoriales.
5. Análisis de series temporales, m é todos de investigación operativa
6. Otros métodos.
Control de los procesos

El control de los procesos muchas veces tiene un significado confuso ya que puede ser visto solo
como la capacidad de controlar el proceso de producción de una línea hasta obtener un
producto terminado para el consumo. Mientras que en realidad controlar todas las actividades
que se realizan durante un proceso desde el diseño hasta el análisis adecuado de dicho proceso
(Ishikawa, 1994: 111).

Ishikawa (1994: 312) plantea algunas diferencias entre control y otros términos que muchas
veces son confundidos:

"Control" y "Mejora"

"Control" quiere decir mantener un proceso en su estado presente, de momento. Sin embargo,
si sucede una anomalía, su causa es eliminada y se evita que vuelva a suceder, y esta acción
produce una ligera mejora. En este sentido, el control es una forma pasiva de mejora. La
"mejora" consiste en buscar activamente los problemas, resolverlos, efectuar un arreglo
permanente para evitar cualquier vuelta atrás, y controlar la nueva situación. Quiere decir
continuar mejorando activamente las cosas.

"Control" e "Inspección"

El "control" consiste en hacer comparaciones con estándares de control o con límites de control
en los gráficos de control, buscar las causas asignables en el proceso o trabajo si se violan los
estándares o hay puntos que caen fuera de los límites, y acometer acciones respecto al proceso.
En contraste, la "inspección" consiste en hacer comparaciones con normas de inspección y, si
no se cumplen, acometer acciones sobre el producto, e.g., designando a los productos
individuales como unidades defectuosas, rechazando a los lotes por inaceptables o instituyendo
la inspección del 100 % (inspección tipo cribado). La idea de que se debe adoptar la inspección
del 100 % si un gráfico de control indica que un proceso se ha salido de control es equivocada.
La decisión de si hacer o no una inspección del 100 % se debe basar en las normas para la
inspección del tipo del cribado.

"Control" (eliminación de causas asignables) y "Ajuste"

"Control" quiere decir buscar y eliminar las causas de las anomalías siempre que los puntos de
un gráfico de control caigan fuera de los límites de control, i.e., cuando el gráfico indica falta de
control. "Ajuste" quiere decir realizar alguna acción reguladora tal como alterar la temperatura
cuando se exceden ciertos límites de ajuste. Generalmente, es erróneo hacer ajustes tales como
alterar la temperatura o cambiar la profundidad de penetración de una herramienta cortante
cuando algunos puntos caen fuera de los límites de control en un gráfico de control. Tales ajustes
pueden hacerse como medida provisional, pero esto no elimina las verdaderas causas de la
anomalía. Usualmente, los límites de control y los de ajuste son intrínsecamente diferentes.

Evolución del concepto de calidad


El concepto de calidad ha ido evolucionando a través de la historia de la humanidad, a partir de
las exigencias del hombre por satisfacer sus necesidades. Tarí (2003) en su libro control total de
la calidad menciona cinco etapas que fueron claves para poder alcanzar el actual enfoque
integral o sistémico de la calidad. Siendo estas etapas las siguientes: 1) edad media-revolución
industrial, 2) revolución industrial-finales siglo XIX, 3) administración científica-II Guerra
Mundial, 4) II Guerra Mundial-década de los setenta y 5) década de los ochenta y noventa. Cada
una de estas etapas se detalla a continuación:

Edad media-revolución industrial

En esta etapa aparecen los artesanos que eran responsables de elaborar un producto
determinado y también eran los encargados de todo el proceso ya que muchas veces trabajaban
individualmente. La producción se realizaba en pequeños talleres y era comercializada en los
mercados locales, por este motivo la relación con los clientes era muy cercana lo que permitía
que estos den especificaciones sobre el producto que quieren comprar lo cual obligaba al
artesano a cumplir estas exigencias y así mejorar sus habilidades. A partir del siglo XVII surgen
cambios con la creación de las ciudades que eran levantadas en zonas a apartadas de las
comunidades rurales, esto dio paso a que los artesanos decidan migrar a estas ciudades en las
cuales veían más oportunidades de poder comercializar sus productos. Debido al creciente
comercio dentro de las ciudades aparecen los mercaderes quienes compraban parte de la
producción a los artesanos para después vendida a diferentes precios establecidos por ellos
mismos, al existir esta especie de intermediarios entre productor y consumidores los artesanos
podían dedicarse solamente a producir olvidándose de otros aspectos y de esta manera se
incrementaba la producción a la vez que se daba mayor énfasis a la calidad la cual dependía
meramente del artesano y de sus habilidades (Tarí, 2003).

Revolución Industrial - finales siglo XIX

Con la aparición de la revolución industrial y de las grandes fábricas algunos artesanos se vieron
obligados a dejar sus actividades, algunos se convirtieron en empresarios, otro grupo decidió
ingresar como operarios en estas industrias, siendo solo un pequeño grupo los que continuaban
con su trabajo anterior. A finales de siglo XIX con la llegada de las maquinas se producía un
cambio total ya que los artesanos que ahora eran operarios debían adaptarse y aprender a
manipular estas nuevas tecnologías, que además estaban destinadas para la producción a
grandes volúmenes. Estos productos elaborados dentro de las fábricas debían cumplir con
especificaciones de los clientes que eran dados al comprador el cual era encargado de diseñar y
ajustar los requisitos que debía poseer cada producto para después pasar esta información a los
operarios para su elaboración. De esta manera seguía existiendo una estrecha relación entre el
cliente y el productor a fin de que el producto final sea de acuerdo a los deseos del consumidor
y tenga buena calidad que en esta etapa de igual manera seguía dependiendo de las habilidades
que tenía cada uno de los operarios anteriormente artesanos (Tarí, 2003).

Administración científica - II Guerra Mundial

La relación que había existido entre productor y cliente desaparece totalmente a finales del siglo
XIX en los Estados Unidos, dando así inicio a un nuevo proceso en el cual se implanto una estricta
división y estandarización del trabajo cambiando completamente las condiciones y los métodos
con los que se realizaban. Estos cambios fueron causantes de un deterioro en la calidad de los
productos debido a la producción en serie que se tenía era muy frecuente que los operarios
cometieran errores, que se olvidaran de colocar piezas provocando así la entrega de artículos
defectuosos. En vista de estos primeros problemas las industrias se vieron en la necesidad de
crear una nueva función en la cual una persona seria la encargada de realizar la inspección y
verificar que productos cumplían con los requerimientos y cuáles no, dejando atrás esta
responsabilidad que antes era de los operarios y pasándosela al inspector. Aunque la calidad en
esta etapa no era realmente considerado como un problema que debía corregirse
inmediatamente ya que al haber poco abastecimiento en los mercados esto hacia que los
productos sean consumidos en su totalidad. La calidad en si solo se empieza a estudiar a
principios del siglo XX una vez que se la fue relacionando con los ya implementados términos de
inspección que para entonces ya estaban puestos en marcha dentro de las industrias (Tarí,
2003).

II Guerra Mundial - Década de los setenta

Después de la II Guerra Mundial la calidad tomaba dos caminos diferentes, por un lado estaba
occidente los cuales se mantenían con su enfoque basado netamente en la inspección de los
productos, por otro lado hace su aparición el enfoque japonés el cual era muy diferente a los
que hasta entonces se conocía en occidente. En Japón se habían empezado a emplear diferentes
métodos estadísticos para el control de calidad, lo cual no se hacía en occidente ya que no se
daba mayor importancia a la calidad debido a que en estos mercados sus productos eran
vendidos con facilidad debido al poco abastecimiento que existía en ese entonces. El control de
calidad tenia cierto límite que era enfocarse solo en la planta productiva, pero este enfoque fue
ampliado gracias a las lecciones del Dr. Juran sobre el arte del Quality management, las cuales
fueron puestas en prácticas en Japón y no en EE.UU., por este motivo la calidad empezó a ser
vista de forma mucho más amplia por la administración de las empresas japonesas. Durante la
década de los 50 Japón comprendió que los artículos debían producirse de manera correcta
desde el principio para no tener problemas al final. Por tal motivo además de realizar la
inspección al producto terminado se enfocaron en buscar la manera de controlar los factores
que intervenían en el proceso y que podían ocasionar productos defectuosos. En vista de esto
las empresas japonesas debían realizar una estructuración de la empresa ya que la aplicación
del control de calidad iba más allá de solo el departamento de producción. Por lo cual para
desarrollar un producto de buena calidad era necesario que todos los departamentos de la
empresa estén involucrados en el proceso. Por otro lado las empresas en occidente no
evolucionaban y consideraban todavía la inspección como sinónimo de calidad, por lo cual
seguían desarrollando técnicas que se basaban netamente en la inspección del producto final
mediante las cuales podían determinar si un producto era idóneo, debido a esto existía gran
cantidad de eliminación de producto y reproceso lo que ocasionaba que los costes de fabricación
aumenten siendo los principales afectados los clientes (Tarí, 2003).

Década de los ochenta y noventa

A mediados de los años setenta occidente se empieza a dar cuanta de la gran ventaja que Japón
tenia y el liderazgo que había conseguido producto de una reestructuración de su cultura
referente a la calidad. Mientras que en occidente esta cultura se basaba en la productividad, los
cuales con la llegada de la crisis petrolera se vieron en la necesidad de ahorrar energía y
disminuir los costes de producción lo cual solo se lograría si se reducía los desperdicios y
reprocesos que en ese entonces eran muy elevados. Así empieza la etapa en la cual la
competencia era cada vez más fuerte debido a la globalización de los mercados lo que ocasiona
que la industria estadounidense empiece a perder el liderazgo que había obtenido por décadas
en diferentes sectores. Los mercados se enfrentan ahora a consumidores cada vez más
informados que ya no se conforman solamente con recibir un producto sino que empiezan a
exigir la calidad como factor determinante para adquirir un bien o servicio. El enfoque japonés
sobre la prevención en vez de la inspección pasa a ser parte importante a nivel mundial teniendo
a la calidad como único requisito para que una empresa pueda ser competitiva, debido a esto
durante los años ochenta y noventa las empresas de todo el mundo tratan de importar
soluciones empeladas por los japoneses, retomando así la estrecha relación entre cliente y
productor que se había distanciado durante gran parte del siglo XX (Tarí, 2003).
DEFINICIÓN DE CALIDAD

Existen diversas definiciones de calidad una de ellas como hacen referencia Render y Heizer
(2014) la calidad tiene tres enfoques vistos desde diferentes puntos el primero es un enfoque
basado en el usuario mediante el cual debe realizarse una investigación previa para conocer las
necesidades y requerimientos del usuario. El segundo enfoque está basado en el producto el
cual adquiere las características o atributos que fueron previamente indagados. Como tercer
enfoque se presenta a la manufactura que se encarga de elaborar y asegurar que el producto
cumpla con las especificaciones previamente establecidas para ser considerado de buena
calidad. Dentro de cualquier proceso de elaboración de un producto o servicio si se deja a un
lado solo uno de estos enfoques será razón suficiente para obtener como resultado un producto
de mala calidad.

CONCEPTOS DE TAGUCHI

En el libro principios de administración de operaciones de Render y Heizer (2014) se pone en


énfasis tres conceptos planteados por Genichi Taguchi que considera muy importantes para
lograr una mejora de la calidad en el producto y también en el proceso. Estos tres conceptos
son: calidad robusta, función de pérdida de calidad, y calidad orientada hacia una meta.

Calidad robusta.- son aquellos productos se elaboran de una manera muy uniforme a pesar de
estar expuestos a condiciones no favorables tanto de manufactura como ambientales. De esta
manera Taguchi plantea que se debería eliminar los efectos que provocan estas condiciones en
lugar de eliminar las causas ya que esto resultaría más barato logrando que de esta manera las
pequeñas variaciones presentes en los materiales y en los procesos no afecten la calidad del
producto.

Función de pérdida de calidad.- esta función nos ayuda a poder identificar todos los costos que
se relacionan con la mala calidad de un producto y nos va mostrando la forma en que aumenta
a medida que un producto se desvía de las especificaciones deseadas por un cliente. Dentro de
estos costos además se incluyen los costos relacionados con la garantía, los costos internos de
inspección, costos de reparación, costos de mantenimiento, y los costos ocasionados por la gran
cantidad de desperdicios. Cuando menor sea la perdida en la elaboración de un producto y su
posterior uso, este será más deseable para los clientes.

La calidad orientada hacia una meta.- para Taguchi cuando un producto está orientado al
cumplimiento de ciertas especificaciones es algo demasiado simple ya que solo se enfoca en que
estos productos caigan dentro de los límites de tolerancia, aceptándose todos aquellos que
estén dentro de estos límites aunque estén lejos de la meta, esto hace que la perdida (costo) se
incrementa en términos de satisfacción de los clientes. Mientras que la calidad orientada hacia
una meta hace que los productos se centren en torno a las especificaciones que se desean
cumplir, de esta manera se podrá obtener más unidades cercanas a la meta establecida.
En el grafico se puede observar como Taguchi tiene su enfoque hacia la meta ya que si los
productos que se fabrican solo se acercan a los límites de tolerancia inferior y superior
establecidos provocara que la función de pérdida de calidad sea más alta.

CONTROL ESTADÍSTICO DEL PROCESO (SPC)

El control estadístico de procesos es una técnica que se utiliza en la producción de bienes o


servicios para asegurarse de que estos procesos de manufactura o de prestación de servicios
puedan cumplir con los estándares que han sido previamente establecidos. En todos los
procesos existe cierto grado de variabilidad que muchas veces no es apreciada a simple vista,
dicha variabilidad es separada en dos partes por Walter Shewhart en 1920 mientras realizaba
un estudio de datos del proceso de laboratorios Bell y nombrándolas como causas comunes y
causas especiales de variación. En vista de la necesidad de identificarlas y separarlas en los
procesos Shewhart desarrollo la gráfica de control que es muy utilizadas hasta el presente. El
control estadístico de procesos es utilizado cuando se quiere conocer o medir el desempeño que
tiene un proceso llegando a ser un proceso bajo control estadístico cuando solo tiene como
fuente de variación a las causas comunes o también llamadas causas naturales. Las causas
especiales de variación deben ser detectadas y eliminadas para que de esta manera se pueda
tener un proceso predecible y dar lugar a evaluaciones que probaran su habilidad para satisfacer
las necesidades y requerimientos de los clientes. De esta manera aplicando el control estadístico
de procesos se logra descubrir cuando en un proceso se presenta causas especiales de variación
y así poder tomar una acción correctiva inmediata para corregir o eliminar dichas causas (Render
y Heizer, 2014).

Variaciones naturales (comunes)

Las variaciones por causas naturales están presentes en todos los procesos de producción aun
cuando estos se encuentren bajo control estadístico, estas variaciones provienen de diferentes
fuentes que forman parte directa o indirecta del proceso. Estas variaciones llegan a formar un
sistema constante de causas probabilísticas que individualmente no representan mayor
diferencia pero agrupadas forman un patrón que puede representarse como una distribución.
Cuando la distribución obtenida de los resultados obtenidos de los datos del proceso se
encuentra dentro de los límites de tolerancia especificados se puede decir que el proceso se
encuentra bajo control y estas variaciones naturales son toleradas (Render y Heizer, 2014).

Variaciones asignables (especiales)

Dentro de un proceso las variaciones asignables son aquellas que pueden ser identificadas y
rastreadas hasta llegar a su fuente. Estas causas de variación se pueden presentar debido a
muchos factores como pueden ser la descalibracion de los equipos, falta de mantenimiento de
la maquinaria, el cansancio por parte de los operarios, mala capacitación para manejar la
maquinaria o adquirir nuevos proveedores de materias primas. El personal encargado de
administrar las operaciones o los procesos se enfrenta constantemente a dos tareas que es
asegurarse de la capacidad del proceso para operar bajo control teniendo en cuenta solo las
variaciones naturales y por otro lado poder identificar las variaciones por causas asignables y
aplicar las acciones correctivas necesarias para mantener el proceso bajo control estadístico
(Render y Heizer, 2014).

Gráficas de control

Las gráficas de control nos permiten graficar las muestras de datos obtenidos del proceso y
examinar las características que poseen para después en base a esta información poder observar
si el proceso se encuentra dentro de los límites de control establecidos. Las gráficas de control
tienen como propósito ayudarnos a distinguir cuando un proceso está trabajando solo con
variaciones naturales y cuando están presentes variaciones provocadas por causas asignables.
Un procesos puede adoptar tres tipos de resultados que los distinguen entre sí, el primero es
cuando un proceso se encuentra bajo control y también es capaz de producir dentro de los
límites de control establecidos, el segundo cuando un proceso está bajo control pero no es capaz
de producir dentro de los límites de control establecidos, y la tercera es cuando un proceso se
encuentra fuera de control (Render y Heizer, 2014).

Los tres tipos de resultados que se pueden presentar en un proceso como lo vimos
anteriormente se distinguen entre si ya que cada uno tiene sus propias características. Render
y Heizer (2014) presentan un gráfico en cual se describe con mayor detalle cada una de las
particularidades con que cuentan cada uno de estos.
Gráficas de control para variables

Cuando se trabaja con variables que poseen dimensiones continuas tales como el peso, longitud,
fuerza, temperatura o velocidad, las graficas utilizadas en estos casos son las gráficas de control
x-barra para la media y las gráficas R para el rango. La grafica x-barra nos ayuda a identificar si
han ocurrido cambios en la tendencia central del proceso que en este caso sería cambios en la
media del proceso, mismos cambios que pueden presentarse debido al desgaste natural que
tienen con el uso las herramientas, cambios en la temperatura del ambiente, procedimientos
diferentes con cada cambio de turno de los operarios o la adquisidor de nueva materia prima o
insumos. Por otro lado la gráfica R indica si existe un aumento o disminución en la dispersión de
los datos, lo cual se puede presentar debido a la descalibracion de las herramientas o
maquinarias, mal flujo de los componentes necesarios para la elaboración de un producto o
también al cansancio o descuido por parte de los operarios. Estos dos tipos de gráficos son muy
importantes al momento de monitorear las variables es por esto que se deben utilizar al mismo
tiempo para medir la tendencia central y la dispersión que son dos parámetros críticos (Render
y Heizer, 2014).

Teorema del límite central

Las gráficas x-barra tienen su fundamento teórico en el teorema del límite central el cual
establece que sin importar que distribución tenga una población de datos, la distribución de las
medias de cada una de las muestras obtenidas de una población tiende a seguir una curva
normal, a medida que aumenta el número de muestras, a pesar de que una muestra (n) sea
pequeña es decir menor a cinco la distribución de los promedios seguirá una curva normal.
Dentro del teorema del límite central también se establece que la media de la distribución de
las medias será igual a la media de la población total que se denota con el símbolo μ, mientras
que la desviación estándar de la distribución de las muestras será equivalente a la desviación
estándar de la población que se divide entre la raíz cuadrada del tamaño de la muestra n (Render
y Heizer, 2014).

En el siguiente grafico se puede apreciar de manera más detallada la representación del teorema
del límite central.
Se muestran tres distribuciones poblacionales diferentes cada una con su media y desviación
estándar de las cuales si se toma una serie de muestras aleatorias de tamaño n, la distribución
resultante de estas muestras darán como resultado una distribución normal. Al tener una
distribución de las muestras normal se puede decir que el 95.45% de las veces, los promedios
de las muestras caerán dentro de  2 desviaciones estándar tomando en cuenta que el proceso
tiene sólo variaciones naturales. El 99.73% de las veces, los promedios de las muestras caerán
dentro de  3 desviaciones estándar si el proceso tiene sólo variaciones naturales. Mientras que
si un punto de la gráfica de control llega a caer fuera de los límites de control, entonces estamos
un 99.73% seguros de que el proceso ha cambiado. Toda esta teoría es fundamental para dar un
buen respaldo a las gráficas de control (Render y Heizer, 2014).

Determinación de los límites de la gráfica de la media (gráficas )

Si queremos determinar los límites de control para la gráfica de la media debemos conocer la
desviación estándar de la población de un proceso a partir de datos históricos, si cumplimos con
este requisito podemos aplicar las siguientes formulas:

𝑙𝑖𝑚𝑖𝑡𝑒 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙 𝑠𝑢𝑝𝑒𝑟𝑖𝑜 (𝐿𝐶𝑆) = X + 𝑍𝜎

𝑙𝑖𝑚𝑖𝑡𝑒 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟 (𝐿𝐶𝐼) = X − 𝑍𝜎


Donde

X = media de las medias muestrales o el valor meta establecido para el proceso


Z = número de desviaciones estándar (2 para el 95.45% de confianza, 3 para el 99.73%)
σ = desviación estándar de las medias muestrales = σ √𝑛
σ = desviación estándar de la población (proceso)
n = tamaño de la muestra

Muchas de las veces no tenemos disponibles las desviaciones estándar del proceso por lo que
en estos casos se puede calcular los límites en base a los valores del rango promedio para esto
existen establecidos ciertos valores en tablas estandarizadas para hacer posible estos cálculos.
El rango se obtiene de la diferencia entre el valor más grande y el valor más pequeño que se
obtienen de las muestras. Las formulas y la tabla necesaria para realizar estos cálculos son los
presentados a continuación:
𝐿𝐶𝑆 = X +A2 R

𝐿𝐶𝐼 = X −A2 R

Donde

X = media de las medias muestrales o el valor meta establecido para el proceso


A2 = valor encontrado en la tabla
R = rango promedio de las muestras

Determinación de los límites de la gráfica del rango (gráficas R)

A pesar de que el promedio del proceso este aparentemente bajo control, la dispersión del
proceso podría no estarlo debido a fallas en las maquinarias lo que ocasionaría que existan
grandes diferencias entre piezas fabricadas lo que daría como resultado altas variaciones en las
muestras obtenidas del proceso. Las gráficas de control de rangos juegan un papel muy
importante ya que permiten observar la variabilidad dentro del proceso su teoría se basa en la
misma aplicada a las gráficas de control de promedios. Para establecer los límites de control
para la gráfica de rangos se aplica las siguientes formulas:

𝐿𝐶𝑆𝑅 =D4 R

𝐿𝐶𝐼𝑅 = D3 R

Donde

LCSR= límite de control superior de la gráfica para el rango


LCSI = límite de control inferior de la gráfica para el rango
D4 y D3 = valores de la tabla

Uso de las gráficas de la media y del rango

Las gráficas x-barra y la gráfica R imitan dos parámetros que definen a una distribución normal
las cuales son la media y el rango, siendo que por un lado la gráfica x-barra es muy sensible a
cambios producidos en la media del procesos, por otro lado la gráfica R es sensible a los cambios
que se producen en la desviación estándar del proceso. Cuando usamos estas dos graficas
podemos dar un seguimiento muy preciso y observar los cambios que ocurren en la distribución
de cualquier proceso (Render y Heizer, 2014).

En el siguiente grafico se puede observar la utilización de ambos gráficos y como se afecta la


media y el rango al detectar cambios en la distribución de los datos.
En la parte (a) del grafico se puede observar como la media del proceso va sufriendo cambios
que alteran la tendencia central, sin embargo como la dispersión sigue siendo constante no se
detectan cambios en la gráfica R. mientras que en la parte (b) del grafico no se detectan cambios
en la tendencia central del proceso debido a que la media muestral es constante, pero en este
caso la dispersión va incrementándose y es detectada inmediatamente por la gráfica R.

Pasos a seguir cuando se usan las gráficas de control

El uso de estas graficas es muy importante y por tal motivo se las debe emplear de una manera
correcta es por esto que Render y Heizer (2014) ponen en énfasis cinco pasos fundamentales
que se deben seguir al momento de emplear las gráficas y R, los mismos que se describen a
continuación:

1. Recolectar 20 o 25 muestras, a menudo de n =4 o n =5 observaciones cada una, a partir


de un proceso estable y calcular la media y el rango de cada una.
2. Calcular las medias globales X y R , establecer los límites de control apropiados,
usualmente en el nivel del 99.73%, y calcular los límites de control superior e inferior
preliminares.
3. Graficar las medias y los rangos de las muestras en sus respectivas gráficas de control y
determinar si caen fuera de los límites aceptables.
4. Investigar los puntos o patrones que indiquen que el proceso está fuera de control.
Tratar de asignar las causas de la variación, enfrentarlas, y después reanudar el proceso.
5. Recolectar muestras adicionales y, de ser necesario, revalidar los límites de control con
los nuevos datos.